back to top

Secondo Apple la superintelligenza artificiale è irraggiungibile

Il paper The Illusion of Thinking di Apple datato giugno 2025 analizza in modo critico le reali capacità di ragionamento degli LRM (Large Reasoning Models), cioè i modelli linguistici più avanzati che producono catene di pensiero prima di formulare le loro risposte. Gli autori dello studio evidenziano che, sebbene questi modelli abbiano raggiunto dei risultati sorprendenti in diversi benchmark, tali test sarebbero spesso viziati da contaminazioni nei dati di addestramento e non permetterebbero di capire davvero quanto i modelli “pensino” in modo autentico.

I limiti nel ragionamento delle AI secondo Apple

Per affrontare la questione, Apple ha sviluppato una serie di puzzle algoritmici classici come la Torre di Hanoi, il River Crossing e il Blocks World, escludendoli dai dati di training. Questo per poter analizzare la reale capacità di ragionamento dei modelli sia sulla risposta finale che sui passaggi intermedi.

Pubblicità

Il paper di Apple mostra come gli LRM funzionino in modo efficiente soltanto finché la complessità dei problemi rimane bassa o moderata. Quando invece il livello di difficoltà supera una certa soglia, le performance crollerebbero drasticamente e i modelli fallirebbero nel trovare delle soluzioni corrette.

Paradossalmente, di fronte a problemi sempre più difficili i modelli ridurrebbero anche la quantità di ragionamento intermedio prodotto. Invece di provare a risolvere un task con più passaggi, tenderebbero quasi a rinunciare alla sfida dimostrando di essere consapevoli dei propri limiti.

Un altro dato interessante emerso dallo studio riguarda il fatto che, anche fornendo ai modelli gli algoritmi di soluzione passo passo, le prestazioni non migliorerebbero in modo particolarmente rilevante. Questo suggerisce che gli attuali LRM non sarebbero davvero in grado di seguire delle procedure algoritmiche o di calcolo simbolico complesso, imiterebbero invece i pattern linguistici e logici appresi nei dati.

Le AI non “pensano” davvero

La conclusione dello studio è che oggi l’apparenza del pensiero in questi modelli è, di fatto, un’illusione. L’intelligenza artificiale, almeno nella sua forma attuale, non ragiona davvero ma riproduce delle sequenze apprese in fase di training.

Per superare questi limiti, Apple sottolinea la necessità di nuovi approcci, forse ibridi o neuro-simbolici, che integrino memoria, pianificazione esplicita e capacità di astrazione. Ciò per poter aspirare ad una vera intelligenza artificiale generalista, cioè una superintelligenza artificiale, realmente “pensante”.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meno metaverso e più AI nel futuro di Meta

Meta ha programmato una revisione della propria strategia aziendale...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

L’iPhone 17e sarà come l’iPhone 17 ma più “semplice”

Apple si starebbe preparando a rinnovare la sua linea...

ChatGPT può fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerà i segreti dell’universo

Il gruppo cinese DeepSeek, già noto per aver introdotto...

Il documento che diede vita ad Apple è all’asta. Vale 4 milioni di dollari

Un pezzo di storia della tecnologia sta per essere...
Pubblicità