I portavoce di OpenAI hanno recentemente pubblicato un comunicato con il quale desiderano fare chiarezza su quello che è l’attuale stato dell’arte di ChatGPT, il chatbot finanziato in parte da Microsoft che consente di colloquiare con un’Intelligenza Artificiale ricevendo risposte in un linguaggio naturale del tutto simile a quello degli esseri umani.
ChatGPT è stato lanciato lo scorso novembre sotto forma di prototipo e pochi mesi dopo ha già trovato diverse applicazioni commerciali come l’integrazione nel motore di ricerca Bing, anche se per ora in fase di test. Ma quanto sono precise le sue risposte? In sostanza, fino a che punto ci possiamo affidare ad esso per ottenere informazioni e svolgere il nostro lavoro?
Secondo OpenAI il sistema sarebbe ancora molto lontano dalla perfezione.
L’intelligenza artificiale di OpenAI dovrà essere perfezionata e disciplinata
Gli sviluppatori dovranno trovare il modo giusto di intervenire su come ChatGPT fornisce le risposte introducendo ad esempio alcune opportunità di personalizzazione, questo per evitare che le direttive di base con cui è stato implementato impediscano un accesso completo alla conoscenza.
Parliamo però di interventi complessi i cui effetti potrebbero dar luogo a comportamenti imprevisti. Ad esempio: un utente che chiede al chatbot le istruzioni per la creazione di un ransomware lo sta facendo soltanto per ricevere informazioni tecniche o perché vorrebbe scatenare un attacco? Quali e quante risposte dovrebbero essere effettivamente vietate?
I feedback degli utilizzatori avranno un ruolo fondamentale nel miglioramento di GPT (Chat Generative Pre-trained Transformer), il modello generativo che sta alla base della piattaforma, ma anche questi ultimi potrebbero essere imprecisi o determinati da bias cognitivi. La strada verso un’Intelligenza Artificiale perfetta è quindi ancora lunga.