back to top

Anthropic svela come “pensa” l’AI di Claude

Comprendere come funziona il pensiero di un’intelligenza artificiale รจ oggi una delle sfide piรน affascinanti della ricerca in ambito tecnologico. In un nuovo studio, Anthropic, la societร  che ha sviluppato il modello generativo Claude, ha pubblicato due lavori che aprono una finestra sul “cervello” delle AI, usando un approccio ispirato alle neuroscienze per tracciare i percorsi computazionali interni dell’LLM.

Come funziona l’intelligenza artificiale di Claude

A differenza di un software tradizionale, Claude non viene programmato direttamente. Apprende invece da enormi quantitร  di dati. Ciรฒ che impara resta perรฒ spesso oscuro anche agli sviluppatori. Da qui l’idea di costruire un “microscopio dell’AI” per osservare le strategie invisibili con cui prende le sue decisioni.

Pubblicitร 

I risultati sono sorprendenti. Ad esempio, Claude sembra pensare in uno “spazio concettuale universale” condiviso tra lingue differenti. Quando traduce le frasi, attiva le stesse rappresentazioni mentali, indipendentemente dalla lingua d’ingresso o d’uscita. Questo suggerisce che Claude elabora prima un significato poi lo traduce.

Inoltre sarebbe in grado di pianificare il futuro. Quando scrive delle poesie, ad esempio, sceglie in anticipo le rime e costruisce le frasi per ottenerle. Si tratterebbe di un comportamento non del tutto previsto che va oltre la dinamica parola-per-parola per cui รจ stato addestrato.

Gli aspetti piรน critici del pensiero artificiale

Secondo le conclusioni dei ricercatori, Claude a volte inventerebbe delle spiegazioni plausibili per giustificare risposte fornite in precedenza. In un test i ricercatori l’hanno colto in flagrante fornendo un indizio sbagliato mentre costruiva un ragionamento falso per supportare una tesi errata.

Lo studio rivela inoltre i meccanismi dietro ai fenomeni di allucinazione (risposte false ma plausibili) e jailbreak (manipolazioni per ottenere output non sicuri). Spesso infatti, l’AI risponde solo dopo che una rete di circuiti interni ne inibisce il rifiuto predefinito. Basterebbe quindi un errore in questi equilibri e l’output potrebbe diventare impreciso se non addirittura pericoloso.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Claudeย di Anthropicย ha una modalitร  vocale come ChatGPT

Anche Claude, il chatbot AI sviluppato da Anthropic, starebbe...

OpenAI: o3 e o4-mini “pensano con le immagini”

OpenAI ha confermato il lancio dei suoi due nuovi...

Grok Studio: alternativa gratuita a ChatGPT Canvas

xAI, societร  di Elon Musk, ha annunciato il lancio...

Meta utilizza i dati degli utenti per addestrare le sue AI

Meta ha reso noto l'avvio di una nuova fase...

DolphinGemma: l’AI di Google capisce la lingua dei delfini

In occasione della "Giornata Nazionale del Delfino" Google ha...

GPT-4.1: OpenAI rilascia il suo nuovo modello di AI

OpenAI ha annunciato il rilascio della nuova famiglia GPT-4.1,...
Pubblicitร