back to top

Secondo Apple la superintelligenza artificiale è irraggiungibile

Il paper The Illusion of Thinking di Apple datato giugno 2025 analizza in modo critico le reali capacità di ragionamento degli LRM (Large Reasoning Models), cioè i modelli linguistici più avanzati che producono catene di pensiero prima di formulare le loro risposte. Gli autori dello studio evidenziano che, sebbene questi modelli abbiano raggiunto dei risultati sorprendenti in diversi benchmark, tali test sarebbero spesso viziati da contaminazioni nei dati di addestramento e non permetterebbero di capire davvero quanto i modelli “pensino” in modo autentico.

I limiti nel ragionamento delle AI secondo Apple

Per affrontare la questione, Apple ha sviluppato una serie di puzzle algoritmici classici come la Torre di Hanoi, il River Crossing e il Blocks World, escludendoli dai dati di training. Questo per poter analizzare la reale capacità di ragionamento dei modelli sia sulla risposta finale che sui passaggi intermedi.

Pubblicità

Il paper di Apple mostra come gli LRM funzionino in modo efficiente soltanto finché la complessità dei problemi rimane bassa o moderata. Quando invece il livello di difficoltà supera una certa soglia, le performance crollerebbero drasticamente e i modelli fallirebbero nel trovare delle soluzioni corrette.

Paradossalmente, di fronte a problemi sempre più difficili i modelli ridurrebbero anche la quantità di ragionamento intermedio prodotto. Invece di provare a risolvere un task con più passaggi, tenderebbero quasi a rinunciare alla sfida dimostrando di essere consapevoli dei propri limiti.

Un altro dato interessante emerso dallo studio riguarda il fatto che, anche fornendo ai modelli gli algoritmi di soluzione passo passo, le prestazioni non migliorerebbero in modo particolarmente rilevante. Questo suggerisce che gli attuali LRM non sarebbero davvero in grado di seguire delle procedure algoritmiche o di calcolo simbolico complesso, imiterebbero invece i pattern linguistici e logici appresi nei dati.

Le AI non “pensano” davvero

La conclusione dello studio è che oggi l’apparenza del pensiero in questi modelli è, di fatto, un’illusione. L’intelligenza artificiale, almeno nella sua forma attuale, non ragiona davvero ma riproduce delle sequenze apprese in fase di training.

Per superare questi limiti, Apple sottolinea la necessità di nuovi approcci, forse ibridi o neuro-simbolici, che integrino memoria, pianificazione esplicita e capacità di astrazione. Ciò per poter aspirare ad una vera intelligenza artificiale generalista, cioè una superintelligenza artificiale, realmente “pensante”.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Apple: il nuovo Siri basato su Gemini potrebbe arrivare a febbraio

Secondo quanto riportato da Mark Gurman di Bloomberg, Apple...

Microsoft: l’AI deve ancora dimostrare la sua utilità

Durante il World Economic Forum 2026 di Davos, Satya...

L’iPhone 18 Pro avrà 12 GB di RAM?

Le prime indiscrezioni su iPhone 18 Pro e iPhone...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Nuove anticipazioni sull’iPhone 18

Stando ad un nuovo rapporto dell'analista Jeff Pu di...
Pubblicità