OpenAI ha lanciato GPT-5.3-Codex, il modello agentico per il coding più avanzato mai rilasciato dalla società. Evoluzione diretta di GPT-5.2-Codex, la nuova versione porta con se importanti miglioramenti in termini di prestazioni, velocità ed efficienza e diventa un nuovo punto di riferimento per sviluppatori professionisti e team. Stando alle dichiarazioni di OpenAI, GPT-5.3-Codex è fino al 25% più veloce rispetto alla versione precedente, soprattutto grazie alle ottimizzazioni dello stack di inferenza.
Benchmark da record e maggiore efficienza
I risultati nei benchmark confermano il salto generazionale. Su SWE-bench Pro GPT-5.3-Codex ha raggiunto un punteggio del 56,8%, superando sia GPT-5.2-Codex che GPT-5.2 standard. Ancora più evidente il progresso su Terminal-Bench 2.0, dove il modello ha ottenuto il 77,3% contro il 64,0% del predecessore.
Un aspetto rilevante è che questi risultati sono stati ottenuti utilizzando meno token rispetto ai modelli Codex precedenti. Questo significa costi computazionali inferiori e una maggiore prevedibilità degli output, entrambi fattori necessari per l’adozione in ambienti enterprise.
Non solo un semplice generatore di codice
OpenAI vuole portare GPT-5.3-Codex oltre il concetto di semplice generatore di codice. Il modello è stato concepito come un collaboratore interattivo in grado di fornire aggiornamenti frequenti sullo stato dei task e di mantenere il contesto mentre lo sviluppatore interviene, fa domande o modifica la sua strategia di lavoro. Nella Codex app, questa interazione in tempo reale consente di guidare il modello senza interrompere il workflow.
Le prime versioni di GPT-5.3-Codex sono state utilizzate per supportare l’addestramento e il rilascio delle iterazioni successive. Il modello è ora disponibile per tutti gli utenti di ChatGPT con piano a pagamento tramite app Codex, CLI, estensione IDE e web. L’accesso alle API è in arrivo. L’infrastruttura di riferimento si basa su sistemi NVIDIA GB200 NVL72 ottimizzati per carichi AI ad alte prestazioni.

