Il paper The Illusion of Thinking di Apple datato giugno 2025 analizza in modo critico le reali capacità di ragionamento degli LRM (Large Reasoning Models), cioè i modelli linguistici più avanzati che producono catene di pensiero prima di formulare le loro risposte. Gli autori dello studio evidenziano che, sebbene questi modelli abbiano raggiunto dei risultati sorprendenti in diversi benchmark, tali test sarebbero spesso viziati da contaminazioni nei dati di addestramento e non permetterebbero di capire davvero quanto i modelli “pensino” in modo autentico.
I limiti nel ragionamento delle AI secondo Apple
Per affrontare la questione, Apple ha sviluppato una serie di puzzle algoritmici classici come la Torre di Hanoi, il River Crossing e il Blocks World, escludendoli dai dati di training. Questo per poter analizzare la reale capacità di ragionamento dei modelli sia sulla risposta finale che sui passaggi intermedi.
Il paper di Apple mostra come gli LRM funzionino in modo efficiente soltanto finché la complessità dei problemi rimane bassa o moderata. Quando invece il livello di difficoltà supera una certa soglia, le performance crollerebbero drasticamente e i modelli fallirebbero nel trovare delle soluzioni corrette.
Paradossalmente, di fronte a problemi sempre più difficili i modelli ridurrebbero anche la quantità di ragionamento intermedio prodotto. Invece di provare a risolvere un task con più passaggi, tenderebbero quasi a rinunciare alla sfida dimostrando di essere consapevoli dei propri limiti.
Un altro dato interessante emerso dallo studio riguarda il fatto che, anche fornendo ai modelli gli algoritmi di soluzione passo passo, le prestazioni non migliorerebbero in modo particolarmente rilevante. Questo suggerisce che gli attuali LRM non sarebbero davvero in grado di seguire delle procedure algoritmiche o di calcolo simbolico complesso, imiterebbero invece i pattern linguistici e logici appresi nei dati.
Le AI non “pensano” davvero
La conclusione dello studio è che oggi l’apparenza del pensiero in questi modelli è, di fatto, un’illusione. L’intelligenza artificiale, almeno nella sua forma attuale, non ragiona davvero ma riproduce delle sequenze apprese in fase di training.
Per superare questi limiti, Apple sottolinea la necessità di nuovi approcci, forse ibridi o neuro-simbolici, che integrino memoria, pianificazione esplicita e capacità di astrazione. Ciò per poter aspirare ad una vera intelligenza artificiale generalista, cioè una superintelligenza artificiale, realmente “pensante”.