Banner E-Learning IT-Sicherheit
Artikel kostenlos lesen

OpenAI stellt GPT-5.4-Cyber vor : KI-Modell, das gezielt für die Cyberabwehr trainiert wurde

OpenAI weitet sein Programm für vertrauenswürdigen Zugang zu KI-Sicherheitswerkzeugen massiv aus und veröffentlicht erstmals ein Modell, das speziell für die Schwachstellenanalyse in der Cyberabwehr feinabgestimmt wurde, inklusive der Fähigkeit, kompilierten Code ohne Quellzugang zu untersuchen.

Am 14. April hat OpenAI GPT-5.4-Cyber vorgestellt, eine Variante des aktuellen Flaggschiff-Modells GPT-5.4, die gezielt für defensive Cybersicherheit optimiert wurde. Laut OpenAI handelt es sich um eine „cyber-permissive“ Version, die weniger restriktiv auf sicherheitsrelevante Anfragen reagiert und neue Fähigkeiten für fortgeschrittene Verteidigungsarbeit mitbringt. Dazu gehört unter anderem die Möglichkeit des Binary Reverse Engineering – also die Analyse kompilierter Software auf Malware-Potenzial, Schwachstellen und Sicherheitsrobustheit, ohne dass Zugang zum Quellcode nötig ist.

Gleichzeitig baut das Unternehmen sein Trusted-Access-for-Cyber-(TAC)-Programm erheblich aus. Tausende verifizierte Einzelpersonen und Hunderte von Teams, die für den Schutz kritischer Software verantwortlich sind, sollen Zugang erhalten. „Der zunehmende Einsatz von KI beschleunigt die Arbeit der Verteidiger – jener, die für den Schutz von Systemen, Daten und Nutzern verantwortlich sind“, schreibt OpenAI in seinem Blogbeitrag.

Mehrstufiger Zugang mit Identitätsprüfung

OpenAI hat für das TAC-Programm ein abgestuftes Zugangssystem eingerichtet. Einzelpersonen können sich über chatgpt.com/cyber verifizieren lassen. Unternehmen beantragen den Zugang über ihren OpenAI-Ansprechpartner. Wer sich bereits im TAC-Programm befindet und sich zusätzlich als legitimer Cyberverteidiger authentifiziert, kann Zugang zu höheren Stufen beantragen, einschließlich GPT-5.4-Cyber.

Da das Modell bewusst weniger restriktiv arbeitet, startet OpenAI laut eigener Aussage mit einem begrenzten, iterativen Rollout an geprüfte Sicherheitsanbieter, Organisationen und Forscher. Dabei gelten besondere Einschränkungen: Vor allem bei Nutzungsszenarien ohne Dateneinsicht – etwa der sogenannten Zero-Data-Retention (ZDR) – behält sich OpenAI zusätzliche Kontrollen vor. Das gelte insbesondere für Entwickler und Organisationen, die über Drittplattformen auf die Modelle zugreifen, bei denen OpenAI weniger Einblick in Nutzer, Umgebung und Zweck der Anfragen habe.

Das Unternehmen betont, man wolle nicht zentral entscheiden, wer sich verteidigen darf und wer nicht. Stattdessen sollen klare, objektive Kriterien wie starke KYC- und Identitätsverifikation den Zugang steuern, mit dem Ziel, diese Prozesse zunehmend zu automatisieren.

Drei Prinzipien und eine lange Vorgeschichte

Zudem stützt OpenAI seine Cybersicherheitsstrategie auf drei Leitprinzipien: demokratisierten Zugang, iteratives Deployment und Investitionen in die Ökosystem-Resilienz. Die Arbeit an der KI-gestützten Cyberabwehr reiche nach Unternehmensangaben bis ins Jahr 2023 zurück, als das Cybersecurity Grant Program gestartet wurde und erste Evaluierungen der Cyber-Fähigkeiten eigener Modelle begannen. 2025 folgten erstmals cyberspezifische Schutzmaßnahmen bei Modell-Deployments. Das cyberspezifische Safety-Training begann mit GPT-5.2 und wurde über GPT-5.3-Codex bis hin zu GPT-5.4 kontinuierlich erweitert. GPT-5.4 wurde dabei unter dem hauseigenen Preparedness Framework als Modell mit „hoher“ Cyber-Fähigkeit eingestuft.

Parallel dazu habe OpenAI ein 10-Millionen-Dollar-Cybersecurity-Grant-Programm aufgelegt, mit Codex for Open Source über 1.000 Open-Source-Projekte mit kostenlosem Sicherheits-Scanning erreicht und das Werkzeug Codex Security entwickelt. Letzteres überwacht automatisch Codebasen, validiert Probleme und schlägt Fixes vor. Seit dem Start als Research Preview habe Codex Security zur Behebung von über 3.000 kritischen und hochgradig eingestuften Schwachstellen beigetragen, dazu kämen zahlreiche weitere Funde mit niedrigerem Schweregrad, so das Unternehmen nach eigenen Angaben.

Dual-Use-Dilemma: Verteidigung und Angriff liegen nah beieinander

OpenAI adressiert in seinem Beitrag offen die inhärente Doppelverwendbarkeit von KI im Sicherheitsbereich. Cyber-Fähigkeiten seien grundsätzlich dual-use – das Risiko hänge nicht allein vom Modell ab, sondern auch vom Nutzer, den Vertrauenssignalen und der gewährten Zugangsstufe. Das Unternehmen verweist darauf, dass bereits bestehende Modelle Schwachstellen finden, über Codebasen hinweg schlussfolgern und wesentliche Teile des Cyber-Workflows unterstützen können. Bedrohungsakteure experimentierten zudem mit neuartigen KI-gestützten Ansätzen. Man habe beobachtet, wie „ausgefeilte Harnesses“ durch mehr Test-Time-Compute immer stärkere Fähigkeiten aus vorhandenen Modellen herausholen.

Daraus zieht der KI-Anbieter den Schluss, dass Schutzmaßnahmen nicht auf eine einzelne künftige Schwelle warten dürften. Stattdessen müsse ein breiter Zugang zu allgemeinen Modellen mit Schutzmaßnahmen neben granulareren Kontrollen für risikoreiche Fähigkeiten bestehen – gestützt durch stärkere Verifizierung und bessere Sichtbarkeit der Nutzung.

Vision: Sicherheit als fortlaufender Prozess statt punktueller Prüfung

Die Kalifornier skizzieren in ihrem Beitrag ein grundlegend anderes Verständnis davon, wie Softwaresicherheit künftig funktionieren soll. Das stärkste Ökosystem sei eines, das Sicherheitsprobleme kontinuierlich identifiziere, validiere und behebe, während Software geschrieben werde. Durch die Integration fortschrittlicher Coding-Modelle und agentenbasierter Fähigkeiten in Entwickler-Workflows sollen Programmierer unmittelbares, umsetzbares Feedback erhalten. Sicherheit solle sich so von episodischen Audits und statischen Fehlerlisten hin zu einer laufenden, messbaren Risikoreduktion verschieben.

Mit Blick auf die Zukunft erklärt OpenAI, die aktuellen Schutzmaßnahmen seien für die breite Bereitstellung heutiger Modelle ausreichend. Modelle, die explizit für Cybersicherheit trainiert und permissiver gestaltet wurden, erforderten jedoch restriktivere Deployments und entsprechende Kontrollen. Langfristig rechnet das Unternehmen damit, dass künftige Modelle, deren Fähigkeiten „selbst die besten zweckgebundenen Modelle von heute rasch übertreffen“ werden, noch umfassendere Verteidigungsmaßnahmen erfordern.

Die Veröffentlichung erfolgt wenige Tage nach der Vorstellung von Anthropics Modell Mythos, das im Rahmen des Projekts Glasswing ebenfalls kontrolliert für Sicherheitszwecke eingesetzt wird und laut Anthropic Tausende von Schwachstellen in Betriebssystemen, Browsern und anderer Software aufgespürt haben soll.