OpenAI випустив оновлену версію своєї моделі кодування GPT-5.2-Codex, призначену для вирішення складних проблем розробки програмного забезпечення з покращеними функціями кібербезпеки. Ця нова ітерація базується на можливостях GPT-5.2 і оптимізована для «агентних» випадків використання, коли ШІ автономно керує довгостроковими проектами кодування. Ці вдосконалення є важливими, оскільки ШІ стає кращим у кодуванні, він також стає потужнішим інструментом як для атак, так і для захисту в кібербезпеці.
Покращені можливості кібербезпеки
OpenAI позиціонує GPT-5.2-Codex як найдосконалішу модель для роботи в сфері кібербезпеки. Компанія перевірила його на відповідність галузевим стандартам, включаючи змагання Capture-the-Flag (CTF), CVE-Bench (виявлення вразливостей) і моделювання Cyber Range.
- CTF-score: Модель показала найкращі результати, що пояснюється «компактністю» – здатністю підтримувати злагоджену роботу в декількох довгих контекстних вікнах.
- CVE-Bench: він набрав 87%, перевершивши попередні моделі, що може пришвидшити пошук вразливостей за допомогою грубої сили.
- Cyber Range: Модель пройшла 72,7% випадків, що трохи нижче, ніж GPT-5.1-Codex-Max (81,8%).
OpenAI визнає подвійне призначення цих можливостей: той самий штучний інтелект, який може ідентифікувати недоліки, також може їх використовувати. Щоб зменшити ризики, компанія запускає пілотну програму «довіреного доступу» для перевірених фахівців з кібербезпеки, що дозволяє їм випробувати весь потенціал моделі без обмежень. Цей підхід визнає, що захисна безпека потребує інструментів із такими ж можливостями, як і зловмисники.
Кодування агента та довгострокова продуктивність
Ключовим досягненням GPT-5.2-Codex є його здатність обробляти масштабні рефакторинги програмного забезпечення, міграції та розробку нових функцій протягом тривалих періодів часу. Компактність гарантує, що модель підтримує контекст навіть під час складних багатофазних проектів. Це критично важливо для підприємств, які покладаються на ШІ для автоматизації або прискорення розробки програмного забезпечення, оскільки це зменшує ризик помилок або втрати прогресу.
OpenAI надає приклад із реального життя: дослідник безпеки за допомогою GPT-5.1-Codex-Max виявив уразливість у коді React, демонструючи потенціал моделі для дослідження вразливостей. Зараз компанія працює над досягненням балансу між доступністю та безпекою, визнаючи, що надмірне обмеження можливостей штучного інтелекту може перешкодити зусиллям із захисту кібербезпеки.
Контрольований доступ і майбутнє розгортання
GPT-5.2-Codex наразі доступний для користувачів платної версії ChatGPT. OpenAI планує розгортати API-доступ протягом наступних тижнів поетапно, приділяючи безпеці головний пріоритет. Пілотна програма «довіреного доступу» надасть вибраним користувачам більш дозволені моделі для оборонної роботи з кібербезпеки, тоді як OpenAI продовжує оцінювати ризики.
“Команди безпеки можуть зіткнутися з обмеженнями, намагаючись імітувати дії зловмисників… Ми розробляємо пілотну програму довіреного доступу, щоб усунути ці перешкоди для кваліфікованих користувачів.”
Підхід OpenAI відображає зростаюче усвідомлення того, що контроль над розробкою штучного інтелекту полягає не лише у запобіганні зловживанням, але й у забезпеченні відповідальних досліджень безпеки та захисту. Підготовча структура компанії продовжуватиме керувати рішеннями щодо розгортання, оскільки моделі стануть потужнішими.
GPT-5.2-Codex є значним кроком вперед у розробці програмного забезпечення з підтримкою штучного інтелекту, але його справжній вплив залежатиме від того, як OpenAI впорається з компромісами між інноваціями та безпекою. Здатність моделі вирішувати складні завдання протягом тривалих періодів часу з розширеними функціями кібербезпеки робить її цінним інструментом для підприємств за умови, що її розгортання залишається під ретельним контролем.
