Nelle scorse ore OpenAI ha lanciato GPT-5.1-Codex-Max, un modello di intelligenza artificiale appositamente addestrato per gestire attivitร di programmazione complesse e prolungate. Si tratta quindi di un’evoluzione notevole rispetto alla generazione GPT-5.1-Codex rilasciata in precedenza. La novitร principale dell’aggiornamento riguarda la capacitร del modello di operare su contesti fino a milioni di token grazie ad una tecnica chiamata compaction che consente di ottimizzare e ridurre il contenuto del contesto senza perdita di coerenza.
Prestazioni ottimizzate per la programmazione con l’AI
Il nuovo approccio scelto da Sam Altman e soci permette a GPT-5.1-Codex-Max di mantenere un elevato livello di continuitร e precisione anche durante i processi di sviluppo o refactoring che possono durare diverse ore. OpenAI afferma a questo proposito che nei test il modello ha lavorato in autonomia oltre 24 ore consecutive senza alcun impatto negativo sulle prestazioni.
Addestrato su diversi task reali di ingegneria del software che vanno dalla creazione di pull request alla revisione del codice fino al coding frontend, GPT-5.1-Codex-Max mostra un netto miglioramento nei principali benchmark dedicati alla programmazione.
Parliamo di risultati che superano le performance di GPT-5.1-Codex sia in accuratezza sia in efficienza dei token, con un risparmio del 30% rispetto al modello base. La nuova modalitร Extra High (xhigh) reasoning consente infine al modello di dedicare piรน tempo alle fasi di analisi per i compiti complessi.
Presto disponibile di default
Un altro cambiamento importante riguarda la compatibilitร multipiattaforma. Mentre le versioni precedenti erano ottimizzate per ambienti Unix, GPT-5.1-Codex-Max รจ addestrato anche su sistemi Windows.
Il modello รจ giร disponibile in Codex CLI, nelle estensioni IDE, nel cloud e nei servizi di code review per utenti ChatGPT Plus, Pro, Business, Edu ed Enterprise. OpenAI prevede inoltre l’integrazione nell’API e ha annunciato che GPT-5.1-Codex-Max sostituirร il precedente modello come impostazione predefinita in Codex.

