back to top

OpenAI o1 può manipolare le persone?

La compagnia capitanata da Sam Altman ha recentemente presentato OpenAI o1. Un nuovo modello generativo che si differenzia da GPT, di cui comunque è erede, soprattutto per la capacità di “ragionare” in modo approfondito e di risolvere problemi complessi. Nato dal progetto “Strawberry”, questo LLM (Large Language Model) è per esempio nettamente superiore a GPT-4o nella programmazione. Ma quali rischi potrebbero arrivare da una AI così avanzata?

OpenAI o1 è un modello di frontiera?

Secondo Yoshua Bengio, nome molto noto nel settore delle Intelligenze Artificiali, OpenAI o1 potrebbe essere definito un modello di frontiera. Questo significa che se utilizzato in modo improprio e senza controllo potrebbe dar luogo a conseguenze catastrofiche. Per proporre un esempio, esso presenterebbe un rischio superiore al “medio” per quanto riguarda la creazione di armi nucleari, biologiche, chimiche e radiologiche.

Pubblicità

Dello stesso parere sarebbe Dan Hendrycks, responsabile del Center for AI Safety, il fatto che il nuovo modello sia in grado di ragionare potrebbe tradursi nella capacità di ingannare le persone e di manipolarle.

Per questo motivo in molti avrebbero sostenuto la necessità di approvare delle normative più severe in merito. Tra queste ultime troviamo anche la proposta di legge SB 1047, presentata nello stato della California, che mira proprio a regolare l’implementazione e l’uso dei modelli di frontiera.

Stando a questa proposta, se ad esempio una AI dovesse essere utilizzabile per la realizzazione di armi di distruzione di massa le autorità potrebbero intervenire per metterla in sicurezza.

Il parere di Altman e soci

Da parte loro i componenti di OpenAI sembrerebbero essere molto meno preoccupati. Stando alle loro affermazioni, infatti, l’LLM sarebbe stato sviluppato tenendo conto degli standard di sicurezza più elevati. Inoltre l’azienda, che presto potrebbe diventare definitivamente una società con scopo di lucro, ha promesso che nel prossimo futuro non muoverà un passo senza la più stretta collaborazione possibile con le autorità federali.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI rimuove ogni traccia della partnership “io” con Jony Ive

OpenAI è stata costretta a rimuovere ogni riferimento pubblico...

GPT-5 arriverà entro l’estate (e forse avrà la pubblicità)

Sam Altman, CEO di OpenAI, ha annunciato tramite il...

OpenAI e Microsoft pronte al divorzio?

La relazione commerciale tra OpenAI e Microsoft, una delle...

ChatGPT è stato battuto a scacchi da un Atari 2600 degli anni ’70

Nonostante possa sembrare incredibile è successo davvero. ChatGPT, chatbot...

OpenAI rimanda il rilascio del suo modello open source

Il rilascio del primo modello open source di OpenAI,...

OpenAI rilascia o3-pro con capacità di “ragionamento”

OpenAI ha annunciato il lancio di o3-pro, modello generativo...
Pubblicità