Come confermato nelle scorse ore da OpenAI, presto ChatGPT integrerà una nuova modalità vocale basata sul modello generativo multimodale GPT-4o. Tale funzionalità era stata protagonista durante la presentazione dell’ultima versione dell’LLM (Large Language Model) ma il suo lancio venne rinviato facendo riferimento alla necessità di potenziare la user experience.
Lo stesso Sam Altman ha annunciato che il roll-out della release Alpha è praticamente imminente, la genesi di questa nuova feature è stata comunque travagliata, anche per via delle polemiche tra OpenAI e l’attrice statunitense Scarlett Johansson secondo cui una delle voci della piattaforma, chiamata Sky, sarebbe stata troppo simile alla sua.
By @pradeepviswav – The rollout of the advanced Voice Mode was delayed due to the need for further content filtering improvements. Now, OpenAI CEO Sam Altman has confirmed that the alpha rollout is happening next week. #VoiceMode #OpenAI #ChatGPT https://t.co/GGPk77iITh
— NeowinFeed (@NeowinFeed) July 26, 2024
La modalità vocale, che almeno in fase iniziale potrà essere utilizzata soltanto dagli utenti che hanno attivato la formula ChatGPT Plus, dovrebbe garantire tempi di risposta praticamente istantanei. Il servizio sarebbe in grado di generare un output in appena 320 ms dopo aver ricevuto un input vocale. Si tratta in ogni caso di un valore medio ottenenuto durante test interni.
Per avere dei termini di paragone, basti pensare che sia con GPT-3.5 che con GPT-4 ChatGPT i tempi di risposta si attentano su valori pari o superiori ai 3 secondi. Una latenza troppo elevata considerando che l’obbiettivo di OpenAI è quello di garantire una user experience che sia quanto più simile possibile ad una conversazione tra esseri umani.
I ritardi nel lancio di questa funzionalità sono riferibili in parte anche a quest’ultimo aspetto. Infatti Altman e soci hanno dovuto trovare un modo efficace per gestire le sessioni in cui gli utenti propongono argomenti controversi che non possono essere trattati dalla piattaform. Senza contare la necessità di preparare i propri data center per l’eleborazione accurata dell’audio.