OpenAI vydala aktualizovanou verzi svého kódovacího modelu, GPT-5.2-Codex, navrženou k řešení složitých problémů s vývojem softwaru pomocí vylepšených funkcí kybernetické bezpečnosti. Tato nová iterace staví na schopnostech GPT-5.2 a je optimalizována pro případy použití „založené na agentech“, kde umělá inteligence autonomně spravuje dlouhodobé projekty kódování. Tato vylepšení jsou důležitá, protože jak se AI zdokonaluje v kódování, stává se také mocnějším nástrojem pro útok i obranu v kybernetické bezpečnosti.

Vylepšené možnosti kybernetické bezpečnosti

GPT-5.2-Codex je OpenAI umístěn jako jejich nejpokročilejší model pro práci v kybernetické bezpečnosti. Společnost jej testovala proti průmyslovým standardům, včetně soutěží Capture-the-Flag (CTF), CVE-Bench (detekce zranitelnosti) a simulací Cyber ​​​​Range.

  • CTF-skóre: Model vykazoval nejlepší výsledky, což se vysvětluje „kompaktností“ – jeho schopností podporovat koordinovanou práci v několika dlouhých kontextových oknech.
  • CVE-Bench: Dosáhla 87 %, čímž překonala předchozí modely, což může urychlit hledání zranitelností hrubou silou.
  • Kybernetický rozsah: Model prošel 72,7 % případů, což je o něco méně než GPT-5.1-Codex-Max (81,8 %).

OpenAI uznává dvojí účel těchto schopností: stejná umělá inteligence, která dokáže identifikovat chyby, je může také zneužít. Ke zmírnění rizik společnost spouští pilotní program „důvěryhodného přístupu“ pro prověřené profesionály v oblasti kybernetické bezpečnosti, který jim umožňuje otestovat plný potenciál modelu bez omezení. Tento přístup uznává, že defenzivní zabezpečení vyžaduje nástroje s podobnými schopnostmi, jaké mají útočníci.

Kódování agentů a dlouhodobý výkon

Klíčovým úspěchem GPT-5.2-Codex je jeho schopnost zvládnout rozsáhlé refaktoringy softwaru, migrace a vývoj nových funkcí po dlouhou dobu. Kompaktní funkce zajišťuje, že model zachovává kontext i během složitých vícefázových projektů. To je zásadní pro podniky, které spoléhají na AI při automatizaci nebo urychlení vývoje softwaru, protože to snižuje riziko chyb nebo ztraceného pokroku.

OpenAI poskytuje příklad ze skutečného života: bezpečnostní výzkumník pomocí GPT-5.1-Codex-Max objevil zranitelnost v kódu React, čímž demonstroval potenciál modelu pro výzkum zranitelnosti. Společnost nyní pracuje na vyvážení dostupnosti a bezpečnosti, přičemž si uvědomuje, že příliš omezené možnosti umělé inteligence by mohly bránit defenzivním snahám o kybernetickou bezpečnost.

Řízený přístup a budoucí nasazení

GPT-5.2-Codex je aktuálně dostupný uživatelům placené verze ChatGPT. OpenAI plánuje zavést přístup k API v nadcházejících týdnech ve fázích, přičemž nejvyšší prioritou je zabezpečení. Pilotní program „důvěryhodný přístup“ poskytne vybraným uživatelům tolerantnější modely pro defenzivní práci v oblasti kybernetické bezpečnosti, zatímco OpenAI bude nadále vyhodnocovat rizika.

“Bezpečnostní týmy mohou čelit omezením, když se pokoušejí napodobit akce útočníků… Vyvíjíme pilotní program Trusted Access, abychom tyto překážky pro kvalifikované uživatele odstranili.”

Přístup OpenAI odráží rostoucí povědomí o tom, že řízení vývoje AI není jen o prevenci zneužití, ale také o zajištění odpovědného výzkumu v oblasti bezpečnosti a obrany. Přípravný rámec společnosti bude i nadále řídit rozhodnutí o nasazení, protože modely budou stále výkonnější.

GPT-5.2-Codex představuje významný krok vpřed ve vývoji softwaru s podporou AI, ale jeho skutečný dopad bude záviset na tom, jak OpenAI zvládne kompromisy mezi inovacemi a bezpečností. Schopnost modelu zvládat složité výzvy po dlouhou dobu pomocí vylepšených funkcí kybernetické bezpečnosti z něj činí cenný nástroj pro podniky za předpokladu, že jeho nasazení zůstane pečlivě kontrolováno.