Per garantire il funzionamento di un chatbot AI come ChatGPT e del modello generativo sottostante non รจ necessaria soltanto una grande quantitร di energia elettrica. Serve anche acqua, tanta acqua. Per questo motivo l’implementazione delle Intelligenze Artificiali Generative sta ponendo ulteriori interrogativi riguardo all’impatto ambientale di queste tecnologie.
AI e raffreddamento dei Data Center
Ma perchรฉ le AI richiedono un ingente consumo d’acqua? Per il semplice fatto che i Data Center utilizzati impiegano un sistema di raffreddamento a liquido. Parliamo di centinaia di terminali collocati in server farm spesso gigantesche che hanno una “fame” costante di energia elettrica e altrettanta “sete” da soddisfare.
Si calcola ad esempio che Meta abbia pompato nei sui impianti ben 22 milioni di litri d’acqua per il training degli LLM (Large Language Model) appartenenti alla famigliaย Llama 3.1. La loro versione piรน avanzata, quella da 405 miliardi di parametri, รจ attualmente il modello linguistico generativo piรน grande mai implementato.
Quanta acqua consuma ChatGPT?
A rispondere a questa domanda รจ stata una ricerca svolta dall’Universitร della California i cui risultati sono stati riportati di recente in un articolo del Washington Post. Stando a quanto rivelato dallo studio, la creatura di OpenAI potrebbe consumare da un minimo di 235 mm a ben 1.408 mm, quasi un litro e mezzo, per restituire in output 100 parole.
Ad influire su questo intervallo sarebbe la distanza tra il dispositivo che invia il prompt e il Data Center che fornisce la risposta. Maggiore รจ la distanza piรน il consumo aumenta.
ร per quanto riguarda il consumo di energia elettrica? Lo stesso task, cioรจ la scrittura di 100 parole, determinerebbe il medesimo consumo dovuto a 12 lampadine LED che rimangono accese ininterrottamente per un’ora. A ciรฒ si deve aggiungere l’energia elettrica che viene consumata dagli utenti per accedere a ChatGPT e formulare la propria richiesta.