OpenAI hat eine aktualisierte Version seines Codierungsmodells GPT-5.2-Codex veröffentlicht, die für die Bewältigung komplexer Software-Engineering-Aufgaben mit verbesserten Cybersicherheitsfunktionen entwickelt wurde. Diese neue Iteration baut auf den Fähigkeiten von GPT-5.2 auf und ist für „agentische“ Anwendungsfälle optimiert – bei denen KI langfristige Codierungsprojekte autonom verwaltet. Die Verbesserungen sind von Bedeutung, denn je besser die KI beim Codieren wird, desto leistungsfähiger wird sie sowohl für Angriffe als auch für die Verteidigung im Bereich der Cybersicherheit.

Erweiterte Cybersicherheitsfunktionen

GPT-5.2-Codex wird als das bisher fortschrittlichste Modell von OpenAI für Cybersicherheitsarbeiten vermarktet. Das Unternehmen testete es anhand von Branchen-Benchmarks, darunter Capture-the-Flag (CTF)-Herausforderungen, CVE-Bench (Schwachstellenerkennung) und Cyber-Range-Simulationen.

  • CTF-Bewertungen: Das Modell erzielte Spitzenleistungen, was auf die „Komprimierung“ zurückzuführen ist – seine Fähigkeit, einen kohärenten Betrieb über mehrere lange Kontextfenster hinweg aufrechtzuerhalten.
  • CVE-Bench: Es erzielte eine Punktzahl von 87 % und übertraf damit frühere Modelle, was den Brute-Force-Ansatz zum Auffinden von Schwachstellen beschleunigen kann.
  • Cyber ​​Range: Das Modell erreichte eine Erfolgsquote von 72,7 %, etwas weniger als die 81,8 % von GPT-5.1-Codex-Max.

OpenAI erkennt den doppelten Nutzen dieser Fähigkeiten: Dieselbe KI, die Schwachstellen erkennen kann, kann sie auch ausnutzen. Um Risiken zu mindern, führt das Unternehmen ein „Trusted Access“-Programm für geprüfte Cybersicherheitsexperten ein, das es ihnen ermöglicht, das volle Potenzial des Modells ohne Einschränkungen zu testen. Dieser Ansatz berücksichtigt, dass defensive Sicherheit Tools mit ähnlichen Fähigkeiten erfordert wie die von Angreifern verwendeten.

Agentische Codierung und Long-Horizon-Arbeit

Ein wichtiger Fortschritt im GPT-5.2-Codex ist seine Fähigkeit, umfangreiche Software-Refactorings, Migrationen und Feature-Builds über längere Zeiträume hinweg durchzuführen. Die Funktion „Komprimierung“ stellt sicher, dass das Modell auch bei komplexen, mehrstufigen Projekten den Kontext behält. Dies ist von entscheidender Bedeutung für Unternehmen, die auf KI angewiesen sind, um die Softwareentwicklung zu automatisieren oder zu beschleunigen, da es das Risiko von Fehlern oder Fortschrittsverlusten verringert.

OpenAI hebt ein Beispiel aus der Praxis hervor: Ein Sicherheitsforscher, der GPT-5.1-Codex-Max verwendet, entdeckte eine Schwachstelle im React-Code und demonstrierte damit das Potenzial des Modells für die Schwachstellenforschung. Das Unternehmen arbeitet nun daran, Zugänglichkeit und Sicherheit in Einklang zu bringen, und ist sich bewusst, dass eine zu starke Einschränkung der KI-Funktionen defensive Cybersicherheitsbemühungen behindern kann.

Kontrollierter Zugriff und zukünftige Bereitstellung

Derzeit ist GPT-5.2-Codex für zahlende ChatGPT-Benutzer verfügbar. OpenAI plant, den API-Zugriff in den kommenden Wochen einzuführen, mit einem schrittweisen Ansatz, bei dem die Sicherheit im Vordergrund steht. Das Trusted-Access-Pilotprogramm wird ausgewählten Benutzern freizügigere Modelle für defensive Cybersicherheitsarbeit bieten, während OpenAI weiterhin die Risiken bewertet.

„Sicherheitsteams können auf Einschränkungen stoßen, wenn sie versuchen, Bedrohungsakteure zu emulieren … Wir entwickeln ein Pilotprojekt für vertrauenswürdigen Zugriff, um diese Hürden für qualifizierte Benutzer zu beseitigen.“

Der Ansatz von OpenAI spiegelt die wachsende Erkenntnis wider, dass es bei der Kontrolle der KI-Entwicklung nicht nur darum geht, Missbrauch zu verhindern, sondern auch darum, verantwortungsvolle Sicherheitsforschung und -verteidigung zu ermöglichen. Das Preparedness Framework des Unternehmens wird weiterhin als Leitfaden für Bereitstellungsentscheidungen dienen, da die Modelle immer leistungsfähiger werden.

GPT-5.2-Codex stellt einen bedeutenden Fortschritt in der KI-gestützten Softwareentwicklung dar, seine wahre Wirkung wird jedoch davon abhängen, wie OpenAI die Kompromisse zwischen Innovation und Sicherheit bewältigt. Die Fähigkeit des Modells, langfristige, komplexe Aufgaben mit verbesserten Cybersicherheitsfunktionen zu bewältigen, macht es zu einem wertvollen Werkzeug für Unternehmen, sofern seine Bereitstellung sorgfältig kontrolliert wird.