back to top

Anthropic svela come “pensa” l’AI di Claude

Comprendere come funziona il pensiero di un’intelligenza artificiale รจ oggi una delle sfide piรน affascinanti della ricerca in ambito tecnologico. In un nuovo studio, Anthropic, la societร  che ha sviluppato il modello generativo Claude, ha pubblicato due lavori che aprono una finestra sul “cervello” delle AI, usando un approccio ispirato alle neuroscienze per tracciare i percorsi computazionali interni dell’LLM.

Come funziona l’intelligenza artificiale di Claude

A differenza di un software tradizionale, Claude non viene programmato direttamente. Apprende invece da enormi quantitร  di dati. Ciรฒ che impara resta perรฒ spesso oscuro anche agli sviluppatori. Da qui l’idea di costruire un “microscopio dell’AI” per osservare le strategie invisibili con cui prende le sue decisioni.

Pubblicitร 

I risultati sono sorprendenti. Ad esempio, Claude sembra pensare in uno “spazio concettuale universale” condiviso tra lingue differenti. Quando traduce le frasi, attiva le stesse rappresentazioni mentali, indipendentemente dalla lingua d’ingresso o d’uscita. Questo suggerisce che Claude elabora prima un significato poi lo traduce.

Inoltre sarebbe in grado di pianificare il futuro. Quando scrive delle poesie, ad esempio, sceglie in anticipo le rime e costruisce le frasi per ottenerle. Si tratterebbe di un comportamento non del tutto previsto che va oltre la dinamica parola-per-parola per cui รจ stato addestrato.

Gli aspetti piรน critici del pensiero artificiale

Secondo le conclusioni dei ricercatori, Claude a volte inventerebbe delle spiegazioni plausibili per giustificare risposte fornite in precedenza. In un test i ricercatori l’hanno colto in flagrante fornendo un indizio sbagliato mentre costruiva un ragionamento falso per supportare una tesi errata.

Lo studio rivela inoltre i meccanismi dietro ai fenomeni di allucinazione (risposte false ma plausibili) e jailbreak (manipolazioni per ottenere output non sicuri). Spesso infatti, l’AI risponde solo dopo che una rete di circuiti interni ne inibisce il rifiuto predefinito. Basterebbe quindi un errore in questi equilibri e l’output potrebbe diventare impreciso se non addirittura pericoloso.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT puรฒ fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerร  i segreti dell’universo

Il gruppo cinese DeepSeek, giร  noto per aver introdotto...

La memoria RAM diventa sempre piรน costosa a causa dell’AI

Il successo dell'intelligenza artificiale sta provocando forti tensioni sul...

ChatGPT: modalitร  vocale e chat testuale in un’unica interfaccia

OpenAI ha rilasciato un nuovo aggiornamento per ChatGPT Voice,...

Black Friday: attenzione alle truffe basate sull’AI

Secondo uno studio pubblicata da Guardio, azienda specializzata in...
Pubblicitร