back to top

Secondo Apple la superintelligenza artificiale è irraggiungibile

Il paper The Illusion of Thinking di Apple datato giugno 2025 analizza in modo critico le reali capacità di ragionamento degli LRM (Large Reasoning Models), cioè i modelli linguistici più avanzati che producono catene di pensiero prima di formulare le loro risposte. Gli autori dello studio evidenziano che, sebbene questi modelli abbiano raggiunto dei risultati sorprendenti in diversi benchmark, tali test sarebbero spesso viziati da contaminazioni nei dati di addestramento e non permetterebbero di capire davvero quanto i modelli “pensino” in modo autentico.

I limiti nel ragionamento delle AI secondo Apple

Per affrontare la questione, Apple ha sviluppato una serie di puzzle algoritmici classici come la Torre di Hanoi, il River Crossing e il Blocks World, escludendoli dai dati di training. Questo per poter analizzare la reale capacità di ragionamento dei modelli sia sulla risposta finale che sui passaggi intermedi.

Pubblicità

Il paper di Apple mostra come gli LRM funzionino in modo efficiente soltanto finché la complessità dei problemi rimane bassa o moderata. Quando invece il livello di difficoltà supera una certa soglia, le performance crollerebbero drasticamente e i modelli fallirebbero nel trovare delle soluzioni corrette.

Paradossalmente, di fronte a problemi sempre più difficili i modelli ridurrebbero anche la quantità di ragionamento intermedio prodotto. Invece di provare a risolvere un task con più passaggi, tenderebbero quasi a rinunciare alla sfida dimostrando di essere consapevoli dei propri limiti.

Un altro dato interessante emerso dallo studio riguarda il fatto che, anche fornendo ai modelli gli algoritmi di soluzione passo passo, le prestazioni non migliorerebbero in modo particolarmente rilevante. Questo suggerisce che gli attuali LRM non sarebbero davvero in grado di seguire delle procedure algoritmiche o di calcolo simbolico complesso, imiterebbero invece i pattern linguistici e logici appresi nei dati.

Le AI non “pensano” davvero

La conclusione dello studio è che oggi l’apparenza del pensiero in questi modelli è, di fatto, un’illusione. L’intelligenza artificiale, almeno nella sua forma attuale, non ragiona davvero ma riproduce delle sequenze apprese in fase di training.

Per superare questi limiti, Apple sottolinea la necessità di nuovi approcci, forse ibridi o neuro-simbolici, che integrino memoria, pianificazione esplicita e capacità di astrazione. Ciò per poter aspirare ad una vera intelligenza artificiale generalista, cioè una superintelligenza artificiale, realmente “pensante”.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

TikTok: milioni di visualizzazioni per video razzisti generati con l’AI

Una nuova indagine condotta da Media Matters rivelerebbe una...

Meta: i chatbot AI inviano messaggi non richiesti agli utenti?

Meta starebbe sperimentando una nuova funzionalità per i suoi...

Gemini gestisce chiamate e messaggi su WhatsApp

L'applicazione mobile di Gemini per dispositivi Android di Google...

ChatGPT: un leggero aumento per il traffico verso i siti web

Un recente report di Similarweb rivela che negli ultimi...

Google Veo 3 permetterà di creare videogiochi con l’AI

In questi giorni si è acceso un vivace dibattito...

Cloudflare blocca i crawler AI di default

Cloudflare ha reso noto che d'ora in poi l'accesso...
Pubblicità