La compagnia capitanata da Sam Altman ha recentemente presentato OpenAI o1. Un nuovo modello generativo che si differenzia da GPT, di cui comunque è erede, soprattutto per la capacità di “ragionare” in modo approfondito e di risolvere problemi complessi. Nato dal progetto “Strawberry”, questo LLM (Large Language Model) è per esempio nettamente superiore a GPT-4o nella programmazione. Ma quali rischi potrebbero arrivare da una AI così avanzata?
OpenAI o1 è un modello di frontiera?
Secondo Yoshua Bengio, nome molto noto nel settore delle Intelligenze Artificiali, OpenAI o1 potrebbe essere definito un modello di frontiera. Questo significa che se utilizzato in modo improprio e senza controllo potrebbe dar luogo a conseguenze catastrofiche. Per proporre un esempio, esso presenterebbe un rischio superiore al “medio” per quanto riguarda la creazione di armi nucleari, biologiche, chimiche e radiologiche.
Dello stesso parere sarebbe Dan Hendrycks, responsabile del Center for AI Safety, il fatto che il nuovo modello sia in grado di ragionare potrebbe tradursi nella capacità di ingannare le persone e di manipolarle.
Per questo motivo in molti avrebbero sostenuto la necessità di approvare delle normative più severe in merito. Tra queste ultime troviamo anche la proposta di legge SB 1047, presentata nello stato della California, che mira proprio a regolare l’implementazione e l’uso dei modelli di frontiera.
Stando a questa proposta, se ad esempio una AI dovesse essere utilizzabile per la realizzazione di armi di distruzione di massa le autorità potrebbero intervenire per metterla in sicurezza.
Il parere di Altman e soci
Da parte loro i componenti di OpenAI sembrerebbero essere molto meno preoccupati. Stando alle loro affermazioni, infatti, l’LLM sarebbe stato sviluppato tenendo conto degli standard di sicurezza più elevati. Inoltre l’azienda, che presto potrebbe diventare definitivamente una società con scopo di lucro, ha promesso che nel prossimo futuro non muoverà un passo senza la più stretta collaborazione possibile con le autorità federali.