Secondo Gary Gensler, presidente della SEC (Securities and Exchange Commission) statunitense, le tecnologie per l’Intelligenza Artificiale Generativa saranno in grado di causare una crisi finanziaria entro il 2030. Ciò comporterà dei rischi per la stabilità dei mercati e molta della responsabilità di ciò potrebbe essere addebitata alle banche.
Queste ultime infatti utilizzano sempre più frequentemente le AI nella gestione dei propri affari, basti pensare che una grande realtà degli USA come la newyorkese Morgan Stanley avrebbe già sviluppato un assistente finanziario basato su GPT-4 (lo stesso alla base di ChatGPT Plus) con il compito di fornire informazioni ai propri consulenti finanziari.
Gary Gensler, the chairperson of the Securities and Exchange Commission, told the Financial Times that the lack of diversity in AI models used by companies could one day pose a significant threat to U.S. financial stability.https://t.co/6kuCZGNfhb
— Bradley Kreit (@bkreit) October 17, 2023
A parere di Gensler il pericolo maggiore deriverebbe dal fatto che spesso i modelli generativi non vengono addestrati tenendo conto delle regole che devono essere rispettate da fondi d’investimento, banche commerciali e broker. L’obbiettivo è spesso solo quello di creare degli strumenti che permettano di massimizzare velocemente i profitti.
A tal proposito il banchiere americano, che per via della sua carica ha anche un ruolo politico, avrebbe citato il caso della crisi finanziaria a cavallo tra il primo e il secondo decennio del 2000, quando le perdite registrate superarono i mille miliardi di dollari anche a causa del malfunzionamento degli algoritmi allora utilizzati per la compravendita di titoli.
Non tutte le banche si strebbero però mostrando entusiaste di abbracciare fin da subito (e acriticamente) la rivoluzione portata dai modelli generativi. Deutsche Bank, Goldman Sachs e Bank of America avrebbero deciso ad esempio di vietare l’uso di queste tecnologie ai propri collaboratori, convinte che siano ancora troppo immature per garantire affidabilità.