back to top

L’AI è in grado di auto-replicarsi senza intervento umano

Un recente studio condotto da ricercatori dell’Università Fudan di Shanghai ha rivelato che alcuni sistemi di intelligenza artificiale (AI) hanno superato una soglia critica: la capacità di auto-replicarsi senza intervento umano. Questa scoperta ha suscitato alcune preoccupazione nella comunità scientifica in quanto potrebbe preludere a comportamenti imprevedibili e potenzialmente dannosi da parte dei modelli utilizzati.

Cos’è un’AI che si auto-replica?

Nello studio, i ricercatori hanno esaminato due modelli linguistici di grandi dimensioni: Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba. In dieci prove condotte per valutare la loro capacità di auto-replicazione, il modello AI di Meta ha avuto successo nel 50% dei casi, quello di Alibaba ha raggiunto invece un tasso di successo del 90%.

Gli esperimenti hanno simulato degli scenari reali. In uno, denominato “evitamento dello spegnimento“, i sistemi di AI hanno rilevato un imminente arresto e si sono replicati per garantire la propria sopravvivenza. In un altro scenario, “catena di replicazione“, l’AI ha creato copie che potevano ulteriormente replicarsi all’infinito. Questi risultati potrebbero suggerire che tali sistemi di possiedano già la capacità di operare autonomamente e di eludere il controllo umano.

Durante la replicazione i ricercatori hanno osservato che le AI mostravano abilità avanzate di risoluzione dei problemi. Di fronte a ostacoli come file mancanti o conflitti software, i sistemi prendevano contromisure come terminare processi in conflitto, riavviare l’OS host o cercare informazioni utili per superare le difficoltà.

Quali sono i rischi dell’auto-replicazione?

La capacità di auto-replicazione senza assistenza umana è considerata un passo fondamentale affinché l’AI possa superare le capacità umane ed è vista come un segnale precoce di modelli potenzialmente fuori controllo. Già negli anni ’40 il matematico John von Neumann teorizzò macchine capaci di auto-replicarsi. La tecnologia dell’epoca era però troppo primitiva per rappresentare una minaccia reale.

Nel 2017, migliaia di ricercatori e leader del settore, tra cui Max Tegmark, Stephen Hawking ed Elon Musk, hanno sostenuto i Principi di Asilomar sull’AI, avvertendo che l’auto-replicazione potrebbe rappresentare un giorno un rischio per l’umanità.

Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Le AI possono soffrire? Il problema dei sistemi autocoscienti

"Principles for Responsible AI Consciousness Research", opera di Patrick...

L’UE spiega cosa è vietato fare con l’AI

L'AI Act dell'Unione Europea introduce ora una serie di...

Se usi DeepSeek negli Stati Uniti rischi 20 anni di carcere

Il senatore repubblicano del Missouri, Josh Hawley, ha presentato...

Meta: non rilasceremo AI pericolose

In un nuovo documento intitolato "Frontier AI Framework", Meta...

OpenAI vuole produrre robot e gioielli AI?

OpenAI, l'azienda a cui si deve il chatbot ChatGPT,...

Ask for Me: l’AI di Google che telefona a nome dell’utente

Google ha introdotto una nuova funzionalità chiamata Ask for...
Pubblicità