back to top

L’AI è in grado di auto-replicarsi senza intervento umano

Un recente studio condotto da ricercatori dell’Università Fudan di Shanghai ha rivelato che alcuni sistemi di intelligenza artificiale (AI) hanno superato una soglia critica: la capacità di auto-replicarsi senza intervento umano. Questa scoperta ha suscitato alcune preoccupazione nella comunità scientifica in quanto potrebbe preludere a comportamenti imprevedibili e potenzialmente dannosi da parte dei modelli utilizzati.

Cos’è un’AI che si auto-replica?

Nello studio, i ricercatori hanno esaminato due modelli linguistici di grandi dimensioni: Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba. In dieci prove condotte per valutare la loro capacità di auto-replicazione, il modello AI di Meta ha avuto successo nel 50% dei casi, quello di Alibaba ha raggiunto invece un tasso di successo del 90%.

Pubblicità

Gli esperimenti hanno simulato degli scenari reali. In uno, denominato “evitamento dello spegnimento“, i sistemi di AI hanno rilevato un imminente arresto e si sono replicati per garantire la propria sopravvivenza. In un altro scenario, “catena di replicazione“, l’AI ha creato copie che potevano ulteriormente replicarsi all’infinito. Questi risultati potrebbero suggerire che tali sistemi di possiedano già la capacità di operare autonomamente e di eludere il controllo umano.

Durante la replicazione i ricercatori hanno osservato che le AI mostravano abilità avanzate di risoluzione dei problemi. Di fronte a ostacoli come file mancanti o conflitti software, i sistemi prendevano contromisure come terminare processi in conflitto, riavviare l’OS host o cercare informazioni utili per superare le difficoltà.

Quali sono i rischi dell’auto-replicazione?

La capacità di auto-replicazione senza assistenza umana è considerata un passo fondamentale affinché l’AI possa superare le capacità umane ed è vista come un segnale precoce di modelli potenzialmente fuori controllo. Già negli anni ’40 il matematico John von Neumann teorizzò macchine capaci di auto-replicarsi. La tecnologia dell’epoca era però troppo primitiva per rappresentare una minaccia reale.

Nel 2017, migliaia di ricercatori e leader del settore, tra cui Max Tegmark, Stephen Hawking ed Elon Musk, hanno sostenuto i Principi di Asilomar sull’AI, avvertendo che l’auto-replicazione potrebbe rappresentare un giorno un rischio per l’umanità.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT conferma le teorie del complotto?

Un recente articolo del New York Times ha portato...

Meta AI ha un grosso problema di privacy

Sembrerebbe essere bastato poco perché la nuova applicazione stand-alone...

Gemini riassume i PDF e crea form

Google ha presentato alcune nuove funzionalità dedicate a Gemini...

Secondo Apple la superintelligenza artificiale è irraggiungibile

Il paper The Illusion of Thinking di Apple datato...

Meta AI permette di editare i video in pochi click

Meta annuncia il lancio di una nuova funzionalità di...

Le AI “psicologhe” sono illegali?

Un gruppo molto nutrito di organizzazioni per i diritti...
Pubblicità