Un recente studio condotto da ricercatori dell’Università Fudan di Shanghai ha rivelato che alcuni sistemi di intelligenza artificiale (AI) hanno superato una soglia critica: la capacità di auto-replicarsi senza intervento umano. Questa scoperta ha suscitato alcune preoccupazione nella comunità scientifica in quanto potrebbe preludere a comportamenti imprevedibili e potenzialmente dannosi da parte dei modelli utilizzati.
Cos’è un’AI che si auto-replica?
Nello studio, i ricercatori hanno esaminato due modelli linguistici di grandi dimensioni: Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba. In dieci prove condotte per valutare la loro capacità di auto-replicazione, il modello AI di Meta ha avuto successo nel 50% dei casi, quello di Alibaba ha raggiunto invece un tasso di successo del 90%.
Gli esperimenti hanno simulato degli scenari reali. In uno, denominato “evitamento dello spegnimento“, i sistemi di AI hanno rilevato un imminente arresto e si sono replicati per garantire la propria sopravvivenza. In un altro scenario, “catena di replicazione“, l’AI ha creato copie che potevano ulteriormente replicarsi all’infinito. Questi risultati potrebbero suggerire che tali sistemi di possiedano già la capacità di operare autonomamente e di eludere il controllo umano.
Durante la replicazione i ricercatori hanno osservato che le AI mostravano abilità avanzate di risoluzione dei problemi. Di fronte a ostacoli come file mancanti o conflitti software, i sistemi prendevano contromisure come terminare processi in conflitto, riavviare l’OS host o cercare informazioni utili per superare le difficoltà.
Quali sono i rischi dell’auto-replicazione?
La capacità di auto-replicazione senza assistenza umana è considerata un passo fondamentale affinché l’AI possa superare le capacità umane ed è vista come un segnale precoce di modelli potenzialmente fuori controllo. Già negli anni ’40 il matematico John von Neumann teorizzò macchine capaci di auto-replicarsi. La tecnologia dell’epoca era però troppo primitiva per rappresentare una minaccia reale.
Nel 2017, migliaia di ricercatori e leader del settore, tra cui Max Tegmark, Stephen Hawking ed Elon Musk, hanno sostenuto i Principi di Asilomar sull’AI, avvertendo che l’auto-replicazione potrebbe rappresentare un giorno un rischio per l’umanità.