OpenAI ha rilasciato una versione aggiornata del suo modello di codifica, GPT-5.2-Codex, progettato per gestire attività complesse di ingegneria del software con funzionalità di sicurezza informatica migliorate. Questa nuova iterazione si basa sulle funzionalità di GPT-5.2 ed è ottimizzata per casi d’uso “agentici”, in cui l’intelligenza artificiale gestisce autonomamente progetti di codifica a lungo termine. I miglioramenti sono importanti perché man mano che l’intelligenza artificiale migliora nella codifica, diventa anche uno strumento più potente sia per l’attacco che per la difesa nella sicurezza informatica.

Funzionalità di sicurezza informatica migliorate

GPT-5.2-Codex è commercializzato come il modello più avanzato di OpenAI per il lavoro di sicurezza informatica. L’azienda lo ha testato rispetto ai benchmark del settore, tra cui le sfide Capture-the-Flag (CTF), CVE-Bench (scoperta delle vulnerabilità) e simulazioni Cyber ​​Range.

  • Valutazioni CTF: il modello ha raggiunto le massime prestazioni, attribuite alla “compattazione”, ovvero la sua capacità di mantenere un funzionamento coerente su più finestre di contesto lunghe.
  • CVE-Bench: Ha ottenuto un punteggio dell’87%, sovraperformando i modelli precedenti, il che può accelerare l’approccio di forza bruta alla ricerca delle vulnerabilità.
  • Cyber ​​Range: il modello ha raggiunto un tasso di superamento del 72,7%, leggermente inferiore all’81,8% di GPT-5.1-Codex-Max.

OpenAI riconosce la natura a duplice uso di queste capacità: la stessa IA che può identificare i difetti può anche sfruttarli. Per mitigare i rischi, l’azienda sta sperimentando un programma di “accesso sicuro” per professionisti controllati della sicurezza informatica, consentendo loro di testare l’intero potenziale del modello senza restrizioni. Questo approccio riconosce che la sicurezza difensiva richiede strumenti con capacità simili a quelle utilizzate dagli aggressori.

Codifica agentica e lavoro a lungo orizzonte

Un progresso chiave nel GPT-5.2-Codex è la sua capacità di gestire refactoring, migrazioni e creazione di funzionalità su larga scala per periodi prolungati. La funzionalità di “compattazione” garantisce che il modello mantenga il contesto anche durante progetti complessi in più fasi. Questo è fondamentale per le aziende che si affidano all’intelligenza artificiale per automatizzare o accelerare lo sviluppo del software, poiché riduce il rischio di errori o perdita di progressi.

OpenAI evidenzia un esempio reale: un ricercatore di sicurezza che utilizza GPT-5.1-Codex-Max ha scoperto una vulnerabilità nel codice React, dimostrando il potenziale del modello per la ricerca sulle vulnerabilità. L’azienda sta ora lavorando per bilanciare l’accessibilità con la sicurezza, riconoscendo che limitare troppo le capacità dell’intelligenza artificiale può ostacolare gli sforzi difensivi della sicurezza informatica.

Accesso controllato e distribuzione futura

Attualmente, il codice GPT-5.2 è disponibile per gli utenti ChatGPT a pagamento. OpenAI prevede di implementare l’accesso API nelle prossime settimane, con un approccio graduale che dà priorità alla sicurezza. Il programma pilota di accesso affidabile fornirà a utenti selezionati modelli più permissivi per il lavoro difensivo sulla sicurezza informatica, mentre OpenAI continua a valutare i rischi.

“I team di sicurezza possono incorrere in restrizioni quando tentano di emulare gli autori delle minacce… Stiamo sviluppando un progetto pilota di accesso affidabile per rimuovere questo ostacolo per gli utenti qualificati.”

L’approccio di OpenAI riflette un crescente riconoscimento del fatto che controllare lo sviluppo dell’IA non significa solo prevenire usi impropri, ma anche consentire una ricerca e una difesa responsabili in materia di sicurezza. Il Preparedness Framework dell’azienda continuerà a guidare le decisioni di implementazione man mano che i modelli diventeranno più potenti.

GPT-5.2-Codex rappresenta un significativo passo avanti nell’ingegneria del software assistita dall’intelligenza artificiale, ma il suo vero impatto dipenderà da come OpenAI gestirà i compromessi tra innovazione e sicurezza. La capacità del modello di gestire attività complesse a lungo termine con funzionalità di sicurezza informatica migliorate lo posiziona come uno strumento prezioso per le aziende, a condizione che la sua implementazione rimanga attentamente controllata.