Il gruppo capitanato da Sam Altman ha presentato alcune importanti novità che riguardano il chatbot ChatGPT, ulteriormente migliorato per presentare caratteristiche ancora più simili a quelle di un interlocutore in carne ed ossa. La piattaforma è ora in grado di ascoltare, di parlare (cosa che in qualche modo sapeva già fare) e di vedere.
I portavoce di OpenAI hanno annunciato un’evoluzione del servizio basato sul modello generativo GPT (Generative Pre-trained Transformer) che integra pienamente il supporto per l’elaborazione degli input sotto forma di immagini e audio. Gli stessi formati potranno essere prodotti per fornire degli output che non siano soltanto dei contenuti testuali.
ChatGPT diventa così un assistente digitale completo, proponendosi come alternativa a soluzioni ampiamente utilizzate come per esempio Google Assistent e Alexa. Per il momento le nuove feature saranno disponibili ai solo sottoscrittori delle formule Plus ed Enterprise (entrambe a pagamento), successivamente arriveranno anche nella versione standard.
Per evidenziare l’utilità degli interventi effettuati più di recente OpenAI ha presentato un interessante esempio nel quale ChatGPT riceve in input l’immagine di una bicicletta. Una volta analizzata quest’ultima il chatbot è stato in grado di spiegare come deve essere abbassato il sellino e quali attrezzi utilizzare per ottenere questo risultato.
ChatGPT can now see, hear, and speak. Rolling out over next two weeks, Plus users will be able to have voice conversations with ChatGPT (iOS & Android) and to include images in conversations (all platforms). https://t.co/uNZjgbR5Bm pic.twitter.com/paG0hMshXb
— OpenAI (@OpenAI) September 25, 2023
Chiaramente, come per i precedenti aggiornamenti della piattaforma valgono le avvertenze riguardanti le "allucinazioni" che potrebbero essere presenti all’interno delle risposte. ChatGPT potrebbe non interpretare correttamente un’immagine o un input vocale e dar luogo a comportamenti anomali, per questo motivo il controllo umano è ancora necessario.