Missbrauch mit Methode : Wie Hackergruppen ChatGPT für Cyberangriffe instrumentalisieren
Wie OpenAI jetzt mitgeteilt hat, haben unter anderem russische und chinesische Hackergruppen ChatGPT gezielt missbraucht – zur Entwicklung von Schadsoftware, zur Social-Media-Manipulation und zur Spionage. Sprachmodelle fördern leider nicht nur Innovation, sondern ermöglichen auch digitale Sabotage und automatisierte Propaganda.
Die Vorstellung, dass generative KI in den falschen Händen Schaden anrichten kann, ist längst Realität: OpenAI hat als Konsequenz eines umfassenden Threat-Intelligence-Reports mehrere ChatGPT-Konten gesperrt, die eindeutig mit staatlich gelenkten Hackergruppen in Verbindung stehen. Diese nutzten das Sprachmodell für eine Vielzahl von Angriffsvorbereitungen – etwa zum Debugging von Malware, zur Umgehung von Sicherheitsmechanismen und zur Automatisierung von Desinformationskampagnen.
Die Akteure zeigten ein hohes Maß an operativer Sicherheit (OPSEC), indem sie für jede ChatGPT-Interaktion neue Accounts erstellten und diese nach einmaligem Gebrauch wieder löschten. Auf diese Weise wurde versucht, Spuren zu verwischen und das Modell iterativ für gezielte technische Zwecke zu instrumentalisieren.
ScopeCreep: Schadcode mit KI-Unterstützung
Eine russischsprachige Gruppe nutzte ChatGPT, um eine Go-basierte Malware weiterzuentwickeln, die von OpenAI unter dem Codenamen ScopeCreep geführt wird. Die Schadsoftware wurde über eine gefälschte Version des legitimen Tools „Crosshair X“ verbreitet und beinhaltete mehrere raffinierte Mechanismen:
- Mehrstufige Angriffsarchitektur: Nach der Erstinfektion mit dem gefälschten Crosshair-X-Tool lud der darin enthaltene Malware-Loader zusätzliche Komponenten nach, eskalierte Privilegien, installierte persistente Hintertüren und exfiltrierte sensible Daten.
- Tarnung und Ausweichverhalten: Die Malware nutzte ShellExecuteW für Rechteerweiterungen, manipulierte Windows Defender über PowerShell, unterdrückte Konsolenausgaben und fügte gezielte Zeitverzögerungen ein.
- Kommunikation über Telegram: Die Angreifer integrierten Funktionen zur Echtzeitbenachrichtigung über kompromittierte Systeme mittels Telegram-API.
Darüber hinaus wurden klassische Techniken wie Base64-Verschleierung, DLL-Side-Loading und SOCKS5-Proxys eingesetzt, um Herkunft und Funktion der Malware zu verschleiern. Ziel war in erster Linie der Diebstahl von Browser-Credentials, Session-Tokens und Cookies.
Chinesische APT-Gruppen im Fokus
Auch chinesische Akteure – konkret die Gruppen APT5 und APT15 – missbrauchten ChatGPT für unterstützende Aktivitäten. Während ein Teil sich auf technische Recherchen zu Satellitenkommunikation und Netzwerkarchitektur konzentrierte, verwendete der andere Teil die KI zum Troubleshooting von Softwarekonfigurationen, der Systemadministration sowie zur Entwicklung von Android- und Webanwendungen.
Dabei ging es nicht nur um scheinbar harmlose Fragen zur Firewall-Konfiguration oder Offline-Paketverwaltung – auch ein Brute-Force-Skript zum Knacken von FTP-Servern wurde mit Hilfe von ChatGPT weiterentwickelt. Besonders besorgniserregend: Die Angreifer arbeiteten an Tools zur automatisierten Steuerung von Android-Geräten, um Inhalte auf sozialen Netzwerken massenhaft zu posten oder zu liken.
Globale Manipulationskampagnen mit KI-Hilfe
Die Analyse zeigt ein vielschichtiges Bild von Akteuren, die ChatGPT für politische Einflussnahme, Propaganda und Social Engineering nutzen. Beispiele:
- Gefälschte IT-Bewerbungen (Nordkorea)
Eine Gruppe aus Nordkorea nutzte ChatGPT, um überzeugende Lebensläufe und Bewerbungen zu erstellen. Ziel war es, sich unbemerkt auf IT- und Softwarejobs weltweit zu bewerben – ein Trick, um Sanktionen zu umgehen und verdeckt Geld zu verdienen.
- „Sneer Review“ (China): Propaganda auf Social Media
Eine chinesische Kampagne generierte massenhaft KI-Texte in Englisch, Chinesisch und Urdu zu politischen Themen, die dann auf Plattformen wie Facebook, Reddit, TikTok und X verbreitet wurden – gezielt zur Beeinflussung der öffentlichen Meinung.
- „Operation High Five“ (Philippinen): Politische Kommentare im Netz
Diese Aktion produzierte kurze, massenhaft gepostete Kommentare zu politischen Themen auf TikTok und Facebook – in Englisch und „Taglish“, einem Mix aus Englisch und Filipino.
- „Operation VAGue Focus“ (China): Täuschung durch angebliche Journalisten
Die Gruppe postete unter falscher Identität – als Journalisten oder Analysten – Inhalte auf X, stellte Fragen zu Hacking-Techniken und übersetzte Nachrichten aus dem Chinesischen ins Englische. Ziel war vermutlich Social Engineering.
- „Operation Helgoland Bite“ (Russland): Einfluss auf die Bundestagswahl
Diese russische Kampagne erstellte Beiträge zur Bundestagswahl 2025 in deutscher Sprache. Die Inhalte waren kritisch gegenüber den Vereinigten Staaten und der NATO und wurden über Telegram und X verbreitet.
- „Operation Uncle Spam“ (China): Spaltung der US-Öffentlichkeit
Eine weitere Kampagne aus China produzierte KI-Texte, die gezielt gegensätzliche Meinungen zu brisanten US-Themen vertraten – um gesellschaftliche Konflikte anzuheizen, insbesondere auf Bluesky und X.
- „Storm-2035“ (Iran): Falsche Identitäten zur Meinungsmache
Iranische Akteure veröffentlichten gefälschte Kommentare auf X, die scheinbar von Personen aus den Vereinigten Staaten, dem Vereinigten Königreich oder Irland stammten. Die Inhalte unterstützten unter anderem die Rechte von Minderheiten und lobten den Iran.
- „Operation Wrong Number“ (Kambodscha/China): Jobbetrug per KI
Eine mutmaßlich kambodschanisch-chinesische Gruppe nutzte ChatGPT, um gefälschte Jobanzeigen in verschiedenen Sprachen zu erstellen. Bei diesen Task Scams, mussten Bewerber hohe Gebühren zahlen, um an scheinbar lukrative Jobs zu gelangen.
Zwischen Ethik, Technik und Regulierung
Die Vorfälle werfen ein Schlaglicht auf die Kehrseite generativer KI: Ihre Fähigkeit zur raschen Informationsverarbeitung, Codegenerierung und Textproduktion lässt sich nicht nur für konstruktive Zwecke einsetzen. Wenn Sprachmodelle wie ChatGPT von technisch versierten Akteuren mit böswilliger Absicht genutzt werden, entstehen neue Angriffsmethoden, die bestehende Sicherheitssysteme unterlaufen und demokratische Diskurse manipulieren können.
OpenAI reagiert mit Transparenz, Sperrungen und der laufenden Analyse verdächtiger Nutzungsmuster. Doch die Vorfälle verdeutlichen: Es braucht nicht nur technische Abwehr, sondern auch eine gesellschaftliche und politische Debatte über den verantwortungsvollen Einsatz von KI – insbesondere dort, wo nationale Sicherheit und digitale Souveränität auf dem Spiel stehen.
