OpenAI starebbe registrando dei progressi notevoli nello sviluppo di un proprio chip per l’intelligenza artificiale, con l’obiettivo di avviare la produzione entro il prossimo anno. Secondo alcune fonti vicine all’azienda, il design del chip sarebbe ormai in fase di finalizzazione e sarà successivamente inviato alla TSMC (Taiwan Semiconductor Manufacturing Co) per la fabbricazione con tecnologia a 3 nanometri.
OpenAI vuole ridurre la dipendenza da Nvidia
Inizialmente questi chip saranno impiegati su scala molto limitata. Verranno impiegati principalmente per l’esecuzione di modelli di AI e potrebbero includere una memoria ad elevata larghezza di banda e un’estesa capacità di rete. Il team di sviluppo, guidato dall’ex ingegnere dei TPU di Google Richard Ho, è recentemente raddoppiato passando da 20 a 40 membri.
Questa iniziativa punta naturalmente a ridurre la dipendenza di OpenAI dai chip Nvidia attualmente utilizzati per l’addestramento e l’esecuzione dei modelli di AI. La collaborazione con TSMC per la produzione dei chip interni consentirà alla compagnia di Sam Altman di ottimizzare le prestazioni dei propri modelli e di gestire in modo più efficiente le risorse computazionali necessarie per le operazioni di intelligenza artificiale su larga scala.
OpenAI starebbe poi collaborando con Broadcom per sviluppare un chip personalizzato destinato a gestire carichi di lavoro molto impegnativi, con l’obiettivo di avviare la produzione entro 2026. Nel frattempo, l’azienda starebbe integrando i chip di AMD nella propria infrastruttura su Microsoft Azure tramite i componenti MI300 che hanno contribuito non poco alla crescita dell’azienda nel settore dei Data Center .
Creare un chip proprietario è la scelta giusta?
OpenAI potrebbe necessitare di ingenti finanziamenti e risorse per accelerare lo sviluppo e la produzione dei propri chip. I concorrenti hanno infatti nomi come Google, Microsoft e Amazon.
Nel contempo però ci si interroga sulla reale necessità di un progetto di questo genere. Soprattutto ora che i risultati raggiunti da startup come DeepSeek hanno evidenziato come i modelli di AI possano essere implementati anche tramite investimenti e consumi di risorse molto contenuti.