Amazon ha annunciato il lancio di Nova Sonic, un modello di intelligenza artificiale generativa pensato per gestire nativamente gli input vocali e generare parlato naturale. Presentato nelle scorse ore, Nova Sonic rappresenta la risposta della compagnia ai progressi nei modelli di OpenAI e Google e dovrebbe distinguersi per velocitร , qualitร del riconoscimento vocale e naturalezza nella conversazione.
Come accedere a Nova Sonic
Disponibile tramite Amazon Bedrock, la piattaforma per sviluppatori dedicata all’AI aziendale, Nova Sonic รจ accessibile attraverso una nuova API di streaming bidirezionale. Secondo Amazon si tratta del modello vocale piรน economico sul mercato con un costo inferiore dell’80% rispetto a GPT-4o di OpenAI.
Nova Sonic รจ giร integrato in Alexa+, evoluzione dell’assistente vocale di Amazon. Stando a quanto dichiarato dai portavoce della casa madre, il nuovo modello eccelle nell’instradamento intelligente delle richieste verso API esterne, fonti di dati proprietarie o servizi online. Ha quindi una grande capacitร di orchestrare sistemi complessi.
Durante le conversazioni Nova Sonic รจ in grado di riconoscere pause e interruzioni, aspettando il momento giusto per rispondere, e trascrive in tempo reale la voce dell’utente per applicazioni future. ร poi meno soggetto a errori in fase di riconoscimento rispetto ad altri modelli vocali e riesce ad interpretare correttamente anche frasi dette in ambienti rumorosi o con una pronuncia imperfetta.
I risultati dei test sono incoraggianti
Secondo i test interni Nova Sonic ha raggiunto un tasso di errore medio del 4,2% su piรน lingue europee. Nella gestione di conversazioni complesse con piรน partecipanti รจ risultato il 46,7% piรน preciso rispetto al modello GPT-4o di OpenAI. In termini di velocitร ha poi permesso di registrare una latenza percepita di 1,09 secondi ed รจ quindi piรน rapido del modello Sam Altman e soci (1,18 secondi).
Nova Sonic รจ parte della strategia di Amazon per costruire un’intelligenza artificiale generale (o AGI), capace di operare come un essere umano. Altri modelli multimodali (con supporto per immagini, video, sensori..) sarebbero giร in fase di sviluppo.