Anthropic svela come “pensa” l’AI di Claude

Comprendere come funziona il pensiero di un’intelligenza artificiale รจ oggi una delle sfide piรน affascinanti della ricerca in ambito tecnologico. In un nuovo studio, Anthropic, la societร  che ha sviluppato il modello generativo Claude, ha pubblicato due lavori che aprono una finestra sul “cervello” delle AI, usando un approccio ispirato alle neuroscienze per tracciare i percorsi computazionali interni dell’LLM.

Come funziona l’intelligenza artificiale di Claude

A differenza di un software tradizionale, Claude non viene programmato direttamente. Apprende invece da enormi quantitร  di dati. Ciรฒ che impara resta perรฒ spesso oscuro anche agli sviluppatori. Da qui l’idea di costruire un “microscopio dell’AI” per osservare le strategie invisibili con cui prende le sue decisioni.

Pubblicitร 

I risultati sono sorprendenti. Ad esempio, Claude sembra pensare in uno “spazio concettuale universale” condiviso tra lingue differenti. Quando traduce le frasi, attiva le stesse rappresentazioni mentali, indipendentemente dalla lingua d’ingresso o d’uscita. Questo suggerisce che Claude elabora prima un significato poi lo traduce.

Inoltre sarebbe in grado di pianificare il futuro. Quando scrive delle poesie, ad esempio, sceglie in anticipo le rime e costruisce le frasi per ottenerle. Si tratterebbe di un comportamento non del tutto previsto che va oltre la dinamica parola-per-parola per cui รจ stato addestrato.

Gli aspetti piรน critici del pensiero artificiale

Secondo le conclusioni dei ricercatori, Claude a volte inventerebbe delle spiegazioni plausibili per giustificare risposte fornite in precedenza. In un test i ricercatori l’hanno colto in flagrante fornendo un indizio sbagliato mentre costruiva un ragionamento falso per supportare una tesi errata.

Lo studio rivela inoltre i meccanismi dietro ai fenomeni di allucinazione (risposte false ma plausibili) e jailbreak (manipolazioni per ottenere output non sicuri). Spesso infatti, l’AI risponde solo dopo che una rete di circuiti interni ne inibisce il rifiuto predefinito. Basterebbe quindi un errore in questi equilibri e l’output potrebbe diventare impreciso se non addirittura pericoloso.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Claude for Creative Work: la nuova era dell’IA per i creativi

Claude, il modello linguistico di Anthropic, si evolve e...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilitร  legate...

Google Workspace introduce lโ€™AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato lโ€™integrazione di unโ€™intelligenza artificiale...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

Lโ€™impiego dellโ€™intelligenza artificiale (IA) sta rapidamente cambiando il nostro...

La corsa all’IA: perchรฉ la Cina supera gli USA con Claude e Gemini

La competizione globale nell'intelligenza artificiale (IA) ha visto la...
Pubblicitร