La crescita sempre più elevata della domanda di contenuti generati tramite l’AI sta mettendo sotto pressione le infrastrutture di Google e OpenAI. Entrambe le aziende sono state quindi costrette a ridurre i limiti di utilizzo dei loro modelli più recenti, Nano Banana Pro e Sora. L’utilizzo da parte degli utenti, amplificato dal periodo pre-natalizio ha provocato un aumento del carico di lavoro sui Data Center, tale da richiedere degli interventi immediati per garantire la stabilità e la continuità dei servizi.
Limitazioni per gli utenti gratuiti di Sora
OpenAI ha comunicato che gli utenti non abbonati potranno generare un massimo di sei video al giorno tramite Sora. A questo proposito Bill Peebles, responsabile del progetto, ha sottolineato come la saturazione delle GPU stia diventando un problema sempre più pressante e i sistemi starebbero operando ormai al limite.
Peebles non ha rivelato se tali limitazioni sono solo temporanei o potrebbero protrarsi nel tempo, si è invece limitato a ricordare che in caso di necessità gli utenti possono pagare per accedere alla generazione di ulteriori contenuti. I limiti per gli abbonati alle formule ChatGPT Plus e Pro non risultano modificati, anche se non è chiaro quanti video possano essere effettivamente prodotti nell’arco di una giornata.
Anche Google ha imposto dei limiti all’uso gratuito di Nano Banana Pro, modello specializzato nella generazione di immagini lanciato di recente. Ora gli utenti senza abbonamento possono creare non più di due immagini al giorno con una riduzione rispetto alle tre stabilite in precedenza. Nel caso di Big G l’azienda ha deciso di adottare una policy più “dinamica” che prevede di aggiornare i limiti senza preavviso in funzione del workload a cui sono sottoposte le GPU. Alcune segnalazioni farebbero poi riferimento a delle restrizioni nell’accesso gratuito a Gemini 3 Pro.
Risorse computazionali costose e problemi di monetizzazione
Appare abbastanza chiaro che, in questo momento, le compagnie stanno cercando un equilibrio fra la diffusione dei modelli generativi tra il grande pubblico e la disponibilità delle risorse computazionali necessarie al loro funzionamento.
A circa tre anni dal lancio di ChatGPT i colossi dell’AI sono ancora alla ricerca di modalità di monetizzazione che permettano di sostenere i costi elevatissimi per il mantenimento delle infrastrutture.

