Banner E-Learning IT-Sicherheit
Mit <kes>+ lesen

Verschärfte Konkurrenz unter KI-Anbietern: Claude-Fähigkeiten massiv abgegriffen : Anthropic wirft chinesischen KI-Firmen Modell-Extraktion im industriellen Maßstab vor

Der Wettbewerb um leistungsfähige künstliche Intelligenz wird härter – und offenbar auch aggressiver. Das Unternehmen Anthropic berichtet von groß angelegten Kampagnen, bei denen Millionen Anfragen eingesetzt wurden, um Fähigkeiten seines Sprachmodells Claude systematisch zu extrahieren. Die Vorwürfe werfen Fragen zu Wettbewerb, Sicherheit und Schutz moderner KI-Systeme auf.

Anthropic hat nach eigenen Angaben umfangreiche Versuche entdeckt, Fähigkeiten seines großen Sprachmodells Claude zu kopieren. Dabei sollen drei KI-Unternehmen gezielt auf das System zugegriffen haben, um eigene Modelle schneller zu trainieren. Nach Analyse des Unternehmens handelte es sich um „Kampagnen im industriellen Maßstab“, die darauf abzielten, zentrale Fähigkeiten des Systems abzuschöpfen.

Insgesamt registrierte Anthropic mehr als 16 Millionen ungewöhnliche Interaktionen mit Claude. Diese Anfragen stammten von rund 24.000 betrügerischen Konten. Ziel war es offenbar, hochwertige Antworten des Systems zu sammeln und daraus Trainingsdaten für eigene Modelle abzuleiten.

Besonders brisant: Alle beteiligten Firmen stammen aus China, wo der Zugriff auf den Dienst aufgrund rechtlicher, regulatorischer und sicherheitsrelevanter Risiken untersagt ist.

Die Struktur der Angriffe fiel den Analysten deutlich auf. Das Unternehmen erklärt dazu, dass Umfang, Struktur und Fokus der Prompts klar von normaler Nutzung abwichen. Statt gewöhnlicher Interaktionen sei erkennbar gewesen, dass gezielt Fähigkeiten extrahiert werden sollten.

Destillation: Schattenseite einer legitimen Technik

Die sogenannte Destillation ist grundsätzlich ein etabliertes Verfahren in der Entwicklung künstlicher Intelligenz. Dabei lernt ein kleineres Modell aus den Antworten eines leistungsfähigeren Systems. Innerhalb eines Unternehmens ist das ein übliches Verfahren, um effizientere oder günstigere Varianten eines Modells zu erstellen. Problematisch wird es jedoch, wenn Wettbewerber diese Technik einsetzen, um fremde Systeme nachzubilden.

Anthropic warnt vor den Folgen solcher Praktiken. Modelle, die auf diese Weise entstehen, könnten wichtige Schutzmechanismen verlieren. Illegale Destillation führe dazu, dass Modelle notwendige Sicherheitsvorkehrungen nicht übernehmen. Dadurch könnten gefährliche Fähigkeiten verbreitet werden.

Zielgerichtete Extraktion von KI-Fähigkeiten

Die Untersuchung zeigt, dass jede Kampagne bestimmte Eigenschaften des Modells ins Visier nahm.

  • DeepSeek zielte auf Reasoning-Funktionen, Bewertungsaufgaben und Antworten zu politisch sensiblen Themen. Mehr als 150.000 Interaktionen wurden erfasst.
  • Moonshot AI konzentrierte sich auf agentenbasiertes Denken, Werkzeugnutzung, Programmierung, Computersteuerung und Computer Vision. Die Kampagne umfasste über 3,4 Millionen Anfragen.
  • MiniMax griff vor allem Coding- und Tool-Use-Funktionen ab. Insgesamt wurden mehr als 13 Millionen Interaktionen registriert.

Laut Anthropic richteten sich alle Kampagnen gezielt auf die leistungsstärksten Eigenschaften des Systems – insbesondere agentenbasiertes Schlussfolgern, Werkzeugnutzung und Programmierfähigkeiten.

Infrastruktur aus Proxy-Netzen

Um die Angriffe durchzuführen, nutzten die beteiligten Akteure umfangreiche technische Infrastruktur. Dazu gehörten kommerzielle Proxy-Dienste, die Zugriff auf moderne KI-Systeme weiterverkaufen. Solche Netzwerke verteilen Anfragen über große Mengen automatisierter Konten. Wird ein Konto gesperrt, ersetzt ein neues sofort den Zugang. In einem Fall verwaltete ein einzelnes Proxy-Netzwerk mehr als 20.000 betrügerische Konten gleichzeitig. Diese Architektur erschwert die Erkennung erheblich, da schädlicher Datenverkehr mit normalen Nutzeranfragen vermischt wird.

Sicherheitsrisiken durch ungeschützte Modelle

Anthropic sieht in solchen Aktivitäten auch hohe sicherheitspolitische Risiken. Wenn fremde Akteure leistungsfähige Modelle ohne integrierte Schutzmechanismen reproduzieren, könnten diese Systeme für verschiedene Zwecke missbraucht werden. Dazu zählen unter anderem:

  • Cyberangriffe
  • Desinformationskampagnen
  • Massenüberwachung

Solche Fähigkeiten könnten nach Einschätzung des Unternehmens sogar als Grundlage für militärische oder nachrichtendienstliche Anwendungen dienen.

Gegenmaßnahmen gegen Modell-Diebstahl

Um Destillation-Angriffe frühzeitig zu erkennen, hat Anthropic mehrere technische Schutzmaßnahmen eingeführt.

  • Klassifikatoren zur Erkennung verdächtiger Anfrage-Muster
  • Verhaltensbasierte Fingerprints zur Identifikation automatisierter Kampagnen
  • Strengere Verifikation für Bildungs- und Forschungszugänge
  • Zusätzliche technische Schutzmechanismen gegen Modell-Extraktion

Auch andere Anbieter beobachten ähnliche Angriffe. Die Google Threat Intelligence Group (GTIG) meldete kürzlich Versuche, Fähigkeiten aus dem Modell Gemini zu extrahieren. Dabei wurden mehr als 100.000 Prompts registriert. Google betont jedoch, dass solche Angriffe für normale Nutzer meist keine direkte Gefahr darstellen. Sie bedrohten in der Regel nicht Vertraulichkeit, Verfügbarkeit oder Integrität eines Dienstes, sondern zielten primär auf die Modelle selbst und deren Entwickler. Der Vorfall zeigt, dass der globale Wettbewerb um leistungsfähige künstliche Intelligenz zunehmend merkwürdige Blüten treibt auch zu einem Wettlauf um den Schutz dieser Systeme wird.