back to top

OpenAI o1 può manipolare le persone?

La compagnia capitanata da Sam Altman ha recentemente presentato OpenAI o1. Un nuovo modello generativo che si differenzia da GPT, di cui comunque è erede, soprattutto per la capacità di “ragionare” in modo approfondito e di risolvere problemi complessi. Nato dal progetto “Strawberry”, questo LLM (Large Language Model) è per esempio nettamente superiore a GPT-4o nella programmazione. Ma quali rischi potrebbero arrivare da una AI così avanzata?

OpenAI o1 è un modello di frontiera?

Secondo Yoshua Bengio, nome molto noto nel settore delle Intelligenze Artificiali, OpenAI o1 potrebbe essere definito un modello di frontiera. Questo significa che se utilizzato in modo improprio e senza controllo potrebbe dar luogo a conseguenze catastrofiche. Per proporre un esempio, esso presenterebbe un rischio superiore al “medio” per quanto riguarda la creazione di armi nucleari, biologiche, chimiche e radiologiche.

Dello stesso parere sarebbe Dan Hendrycks, responsabile del Center for AI Safety, il fatto che il nuovo modello sia in grado di ragionare potrebbe tradursi nella capacità di ingannare le persone e di manipolarle.

Per questo motivo in molti avrebbero sostenuto la necessità di approvare delle normative più severe in merito. Tra queste ultime troviamo anche la proposta di legge SB 1047, presentata nello stato della California, che mira proprio a regolare l’implementazione e l’uso dei modelli di frontiera.

Stando a questa proposta, se ad esempio una AI dovesse essere utilizzabile per la realizzazione di armi di distruzione di massa le autorità potrebbero intervenire per metterla in sicurezza.

Il parere di Altman e soci

Da parte loro i componenti di OpenAI sembrerebbero essere molto meno preoccupati. Stando alle loro affermazioni, infatti, l’LLM sarebbe stato sviluppato tenendo conto degli standard di sicurezza più elevati. Inoltre l’azienda, che presto potrebbe diventare definitivamente una società con scopo di lucro, ha promesso che nel prossimo futuro non muoverà un passo senza la più stretta collaborazione possibile con le autorità federali.

Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Anche Google vuole una AI in grado di ragionare

Stando a quanto riportato nelle scorse ore da Bloomberg,...

ChatGPT potrebbe costare più del doppio entro il 2029

Stando a quanto riportato dal New York Times nel...

OpenAI crea un nuovo dispositivo AI con Jony Ive

Jony Ive starebbe collaborando con OpenAI per la creazione...

Strawberry: ChatGPT pensa prima di parlare

Se tutto dovesse andare come previsto da Sam Altman...

ChatGPT: 8 nuove voci per l’AI di OpenAI

Uno dei segreti del successo di ChatGPT è sicuramente...

Elon Musk: nuova denuncia contro OpenAI

Elon Musk ha presentato una nuova denuncia contro OpenAI,...
Pubblicità