back to top

L’AI è in grado di auto-replicarsi senza intervento umano

Un recente studio condotto da ricercatori dell’Università Fudan di Shanghai ha rivelato che alcuni sistemi di intelligenza artificiale (AI) hanno superato una soglia critica: la capacità di auto-replicarsi senza intervento umano. Questa scoperta ha suscitato alcune preoccupazione nella comunità scientifica in quanto potrebbe preludere a comportamenti imprevedibili e potenzialmente dannosi da parte dei modelli utilizzati.

Cos’è un’AI che si auto-replica?

Nello studio, i ricercatori hanno esaminato due modelli linguistici di grandi dimensioni: Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba. In dieci prove condotte per valutare la loro capacità di auto-replicazione, il modello AI di Meta ha avuto successo nel 50% dei casi, quello di Alibaba ha raggiunto invece un tasso di successo del 90%.

Pubblicità

Gli esperimenti hanno simulato degli scenari reali. In uno, denominato “evitamento dello spegnimento“, i sistemi di AI hanno rilevato un imminente arresto e si sono replicati per garantire la propria sopravvivenza. In un altro scenario, “catena di replicazione“, l’AI ha creato copie che potevano ulteriormente replicarsi all’infinito. Questi risultati potrebbero suggerire che tali sistemi di possiedano già la capacità di operare autonomamente e di eludere il controllo umano.

Durante la replicazione i ricercatori hanno osservato che le AI mostravano abilità avanzate di risoluzione dei problemi. Di fronte a ostacoli come file mancanti o conflitti software, i sistemi prendevano contromisure come terminare processi in conflitto, riavviare l’OS host o cercare informazioni utili per superare le difficoltà.

Quali sono i rischi dell’auto-replicazione?

La capacità di auto-replicazione senza assistenza umana è considerata un passo fondamentale affinché l’AI possa superare le capacità umane ed è vista come un segnale precoce di modelli potenzialmente fuori controllo. Già negli anni ’40 il matematico John von Neumann teorizzò macchine capaci di auto-replicarsi. La tecnologia dell’epoca era però troppo primitiva per rappresentare una minaccia reale.

Nel 2017, migliaia di ricercatori e leader del settore, tra cui Max Tegmark, Stephen Hawking ed Elon Musk, hanno sostenuto i Principi di Asilomar sull’AI, avvertendo che l’auto-replicazione potrebbe rappresentare un giorno un rischio per l’umanità.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Negli USA l’AI di Gemini scrive anche le leggi

L'amministrazione Trump sta avviando un progetto che prevede l'utilizzo...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Microsoft: l’AI deve ancora dimostrare la sua utilità

Durante il World Economic Forum 2026 di Davos, Satya...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...

Google TranslateGemma: l’AI che traduce in 55 lingue differenti

Google ha presentato TranslateGemma, una nuova suite di modelli...
Pubblicità