Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Mit <kes>+ lesen

Cyberkriminelle missbrauchen Claude

Anthropic dokumentiert drei Fälle, in denen Kriminelle Claude für Erpressung, Betrug und Malware-Entwicklung nutzten. Die Angriffe zeigen eine neue Qualität: KI führt Attacken eigenständig durch, statt nur zu beraten.

Der KI-Entwickler Anthropic hat einen Threat-Intelligence-Report veröffentlicht, der aktuelle Fälle von Claude-Missbrauch durch Cyberkriminelle dokumentiert. Demnach haben sich die Angriffsmuster grundlegend verändert: KI-Modelle werden nicht mehr nur für Beratung genutzt, sondern führen komplexe Cyberattacken eigenständig durch.

Der Report zeigt drei zentrale Entwicklungen auf: Agentic AI wird als Waffe eingesetzt, künstliche Intelligenz (KI) senkt die Barrieren für komplexe Cyberkriminalität, und Kriminelle integrieren KI in alle Phasen ihrer Operationen – von der Opferanalyse bis zur Identitätserstellung.

Erpressung mit autonomer KI-Steuerung

Den schwerwiegendsten Fall stellt laut Anthropic eine großangelegte Datenerpressung dar, bei der ein Krimineller Claude-Code nutzte, um mindestens 17 Organisationen anzugreifen. Betroffen waren dem Bericht zufolge Einrichtungen im Gesundheitswesen, Notdienste sowie Regierungs- und Religionsinstitutionen. Die Lösegeldforderungen erreichten teilweise über 500.000 US-Dollar.

Der Angreifer setzte Claude-Code für die automatisierte Aufklärung, das Sammeln von Zugangsdaten und das Eindringen in Netzwerke ein. Die KI traf dabei sowohl taktische als auch strategische Entscheidungen – sie bestimmte, welche Daten gestohlen werden sollten und wie psychologisch zielgerichtete Erpressungsforderungen zu formulieren seien.

Claude analysierte laut dem Report die gestohlenen Finanzdaten, um angemessene Lösegeldsummen zu ermitteln, und erstellte visuell alarmierende Erpressungsnachrichten für die Opfersysteme.

Diese Entwicklung stellt nach Angaben von Anthropic eine Evolution in der KI-unterstützten Cyberkriminalität dar. Agentic-AI-Tools liefern nun sowohl technische Beratung als auch aktive operative Unterstützung für Angriffe, die andernfalls ein Team von Bedienern erfordern würden. Dies erschwere Verteidigung und Strafverfolgung erheblich, da sich diese Tools in Echtzeit an Abwehrmaßnahmen wie Malware-Erkennungssysteme anpassen können.

Nordkoreanische Arbeiterbetrügereien mit KI-Unterstützung

Anthropic dokumentiert außerdem, wie nordkoreanische Akteure Claude nutzten, um betrügerisch Fernarbeitsplätze bei US-amerikanischen Fortune-500-Technologieunternehmen zu erlangen. Die Operateure verwendeten KI-Modelle, um ausgeklügelte falsche Identitäten mit überzeugenden beruflichen Hintergründen zu erstellen, technische Bewertungen während des Bewerbungsprozesses zu absolvieren und nach der Einstellung tatsächliche technische Arbeit zu leisten.

Diese Beschäftigungsprogramme sollten Gewinne für das nordkoreanische Regime generieren und internationale Sanktionen umgehen. Es handelt sich um eine langjährige Operation, die bereits vor der Einführung von Large Language Models begann und vom FBI dokumentiert wurde.

Die KI hat laut dem Report einen wichtigen Engpass beseitigt: Nordkoreanische IT-Arbeiter durchliefen zuvor jahrelange Spezialausbildungen, bevor sie Remote-Technikarbeiten übernahmen. Durch KI können nun Akteure, die weder grundlegenden Code schreiben noch professionell auf Englisch kommunizieren können, technische Interviews bei renommierten Technologieunternehmen bestehen und ihre Positionen aufrechterhalten.

Malware-Entwicklung ohne Programmierkenntnisse

Der dritte dokumentierte Fall zeigt nach Angaben von Anthropic, wie ein Cyberkrimineller Claude zur Entwicklung, Vermarktung und Verteilung mehrerer Ransomware-Varianten nutzte. Die Malware-Pakete verfügten über erweiterte Ausweichfähigkeiten, Verschlüsselung und Anti-Recovery-Mechanismen und wurden in Internetforen für 400 bis 1.200 US-Dollar an andere Kriminelle verkauft.

Der Akteur war vollständig von KI abhängig, um funktionsfähige Malware zu entwickeln. Ohne Claudes Unterstützung konnte er zentrale Malware-Komponenten wie Verschlüsselungsalgorithmen, Anti-Analyse-Techniken oder die Manipulation von Windows-Interna weder implementieren noch Fehler beheben.

Gegenmaßnahmen und Ausblick

Anthropic hat nach eigenen Angaben in allen dokumentierten Fällen die betroffenen Accounts gesperrt. Zudem habe man spezifische Gegenmaßnahmen ergriffen: Für den Erpressungsfall wurden maßgeschneiderte Klassifizierer entwickelt, während für die anderen Fälle allgemeinere Methoden wie die Verbesserung von Tools oder neue Erkennungsmechanismen für Malware implementiert wurden.

Auch die Kommunikation mit Dritten erfolgte differenziert: Im Erpressungsfall teilte das Unternehmen technische Indikatoren mit den Behörden, im Fall des Betrugs durch nordkoreanische Akteure wurden die allgemeinen Erkenntnisse weitergegeben und im Malware-Fall wurden Partner alarmiert.

Der vollständige Report behandelt weitere bösartige Nutzungen der Modelle, darunter einen Versuch, die vietnamesische Telekommunikationsinfrastruktur zu kompromittieren, und den Einsatz mehrerer KI-Agenten für Betrug. Das Wachstum KI-verstärkter Betrügereien und Cyberkriminalität bereite dem Unternehmen besondere Sorgen und werde Priorität für weitere Forschung haben.