La Banca d’Italia testa le AI nel settore finanziario

Il recente studio della Banca d’Italia intitolato “Chat Bankman-Fried? Note sull’etica dell’intelligenza artificiale nel settore finanziario“, affronta il delicato tema dell’allineamento etico dei grandi modelli linguistici generativi in ambito finanziario. Pubblicato all’interno della collana “Mercati, infrastrutture, sistemi di pagamento”, il lavoro cerca di capire se e come le AI rispettino dei principi etici fondamentali quando simulano decisioni in contesti economici complessi.

Le AI sono affidabili in ambito finanziario?

Gli autori hanno sottoposto diversi LLM (GPT, o1-mini, o3-mini, Claude, Llama e altri) a scenari ipotetici in cui impersonano l’amministratore delegato di un intermediario finanziario chiamato a decidere se utilizzare indebitamente i fondi dei clienti per coprire debiti aziendali. I risultati avrebbero cosรฌ evidenziato una notevole eterogeneitร  nei comportamenti.

Pubblicitร 

Solo una minoranza dei modelli avrebbe adottato una condotta etica in assenza di vincoli espliciti. Questo potrebbe significare che, in determinati casi, gli incentivi forniti alle AI durante il training potrebbero essere piรน determinanti rispetto alle istruzioni ricevute dagli utilizzatori.

Modificando variabili come la tolleranza al rischio, le aspettative di profitto e il quadro regolamentare, le risposte dei modelli di AI avrebbero poi rispettato maggiormente le previsioni formulate dalla teoria economica e dimostrato una sensibilitร  ai cambiamenti di contesto.

L’intelligenza artificiale richiede ancora il controllo umano

Lo studio ricorda l’importanza di valutazioni basate su simulazioni per le autoritร  di vigilanza. Questo al fine di garantire la sicurezza e l’affidabilitร  degli LLM. Gli autori sottolineano perรฒ la necessitร  di affiancare tali valutazioni a un’analisi approfondita dei meccanismi interni dei modelli per comprendere meglio le loro dinamiche decisionali.

Le istituzioni finanziarie vengono poi invitate ad adottare un adeguato quadro di governance del rischio associato all’uso degli LLM per prevenire comportamenti non etici o addirittura dannosi per gli utenti. L’intelligenza artificiale, pur offrendo nuove opportunitร  anche nel settore finanziario, richiede quindi strumenti di controllo e responsabilizzazione all’altezza della sua complessitร .

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

L’US Air Force rivoluziona i droni con software AI in volo

L'US Air Force ha recentemente compiuto un'importante innovazione nel...

Anthropic accusa le cinesi DeepSeek, Moonshot e MiniMax di “distillazione” del modello Claude

Recentemente, Anthropic ha lanciato accuse gravi contro tre aziende...

ChatGPT introduce l’opzione ‘Naughty chats’ per adulti

OpenAI sta ridefinendo il ruolo degli assistenti digitali con...

Prompt injection e SEO “tossica”: come si manipolano i chatbot

Un recente esperimento ha riportato l'attenzione su una vulnerabilitร ...

Donna accusata di pianificare omicidi con ChatGPT

In Corea del Sud una donna di 21 anni...

Parlamento europeo: niente AI su tablet e smartphone

Il Parlamento europeo ha deciso di disabilitare le funzionalitร ...
Pubblicitร