OpenAI o1 può manipolare le persone?

La compagnia capitanata da Sam Altman ha recentemente presentato OpenAI o1. Un nuovo modello generativo che si differenzia da GPT, di cui comunque è erede, soprattutto per la capacità di “ragionare” in modo approfondito e di risolvere problemi complessi. Nato dal progetto “Strawberry”, questo LLM (Large Language Model) è per esempio nettamente superiore a GPT-4o nella programmazione. Ma quali rischi potrebbero arrivare da una AI così avanzata?

OpenAI o1 è un modello di frontiera?

Secondo Yoshua Bengio, nome molto noto nel settore delle Intelligenze Artificiali, OpenAI o1 potrebbe essere definito un modello di frontiera. Questo significa che se utilizzato in modo improprio e senza controllo potrebbe dar luogo a conseguenze catastrofiche. Per proporre un esempio, esso presenterebbe un rischio superiore al “medio” per quanto riguarda la creazione di armi nucleari, biologiche, chimiche e radiologiche.

Pubblicità

Dello stesso parere sarebbe Dan Hendrycks, responsabile del Center for AI Safety, il fatto che il nuovo modello sia in grado di ragionare potrebbe tradursi nella capacità di ingannare le persone e di manipolarle.

Per questo motivo in molti avrebbero sostenuto la necessità di approvare delle normative più severe in merito. Tra queste ultime troviamo anche la proposta di legge SB 1047, presentata nello stato della California, che mira proprio a regolare l’implementazione e l’uso dei modelli di frontiera.

Stando a questa proposta, se ad esempio una AI dovesse essere utilizzabile per la realizzazione di armi di distruzione di massa le autorità potrebbero intervenire per metterla in sicurezza.

Il parere di Altman e soci

Da parte loro i componenti di OpenAI sembrerebbero essere molto meno preoccupati. Stando alle loro affermazioni, infatti, l’LLM sarebbe stato sviluppato tenendo conto degli standard di sicurezza più elevati. Inoltre l’azienda, che presto potrebbe diventare definitivamente una società con scopo di lucro, ha promesso che nel prossimo futuro non muoverà un passo senza la più stretta collaborazione possibile con le autorità federali.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI e il nuovo smartphone con AI agentica: tutto quello che sappiamo

OpenAI, nota per i suoi sviluppi pionieristici nel campo...

Canonical presenta i piani AI per Ubuntu: inferenza locale e trasparenza

Canonical, la società dietro la popolare distribuzione Linux Ubuntu,...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilità legate...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

L’impiego dell’intelligenza artificiale (IA) sta rapidamente cambiando il nostro...

La corsa all’IA: perché la Cina supera gli USA con Claude e Gemini

La competizione globale nell'intelligenza artificiale (IA) ha visto la...
Pubblicità