Mit <kes>+ lesen

USA: Neue KI-Sicherheitsrichtlinien für kritische Infrastrukturen

Die US-Regierung hat neue Sicherheitsrichtlinien vorgestellt, mit denen kritische Infrastrukturen gegen Bedrohungen durch künstliche Intelligenz (KI) geschützt werden sollen.

Lesezeit 3 Min.

Das Department of Homeland Security (DHS) erklärte, dass diese Richtlinien auf den Bemühungen der gesamten Regierung basieren, KI-Risiken in allen sechzehn kritischen Infrastruktursektoren zu bewerten und Bedrohungen sowohl für als auch von KI-Systemen anzugehen. Die Behörde betonte auch, dass sie daran arbeite, eine sichere, verantwortungsvolle und vertrauenswürdige Nutzung der Technologie zu ermöglichen, ohne die Privatsphäre, die Bürgerrechte und die bürgerlichen Freiheiten des Einzelnen zu verletzen.

Die neuen Leitlinien beziehen sich auf den Einsatz von KI zur Verstärkung und Ausweitung von Angriffen auf kritische Infrastrukturen, die gegnerische Manipulation von KI-Systemen und die potenziellen Mängel solcher Werkzeuge, die zu unbeabsichtigten Folgen führen könnten. Daher betont das DHS die Notwendigkeit von Transparenz und „Secure by Design“-Praktiken zur Bewertung und Minderung von KI-Risiken.

Es geht um vier verschiedene Aufgaben, wie zum Beispiel Regeln festlegen, Zusammenhänge erkennen, messen und verwalten, die verschiedene Aspekte des KI-Lebenszyklus abdecken:

  • Eine Unternehmenskultur für das Risikomanagement im Bereich KI aufbauen
  • Den individuellen Kontext und das Risikoprofil der eigenen KI-Nutzung verstehen
  • Systeme entwickeln, um KI-Risiken zu bewerten, zu analysieren und zu verfolgen
  • KI-Risiken für die Sicherheit und den Schutz priorisieren und entsprechend handeln.

Die Agentur betont, dass Eigentümer und Betreiber kritischer Infrastrukturen bei der Bewertung von KI-Risiken und der Auswahl geeigneter Gegenmaßnahmen ihren eigenen spezifischen Einsatz von KI im jeweiligen Sektor und Kontext berücksichtigen sollten.

Es wird empfohlen, dass Eigentümer und Betreiber kritischer Infrastrukturen verstehen, wo ihre Abhängigkeiten von KI-Anbietern liegen und zusammenarbeiten, um Verantwortlichkeiten für Gegenmaßnahmen klar zu definieren und aufzuteilen.

Diese Entwicklung kommt nur wenige Wochen nach der Veröffentlichung eines Informationsblatts der Five Eyes (FVEY), einer Geheimdienstallianz, zu der Australien, Kanada, Neuseeland, Großbritannien und die USA gehören. In dem Informationsblatt wird betont, wie wichtig eine sorgfältige Einrichtung und Konfiguration von KI-Systemen ist.

Die Regierungen warnen davor, dass die schnelle Einführung und Nutzung von KI-Funktionen diese zu attraktiven Zielen für böswillige Cyber-Akteure machen kann. Frühere Akteure, die Daten Diebstahl von sensiblen Informationen und geistigem Eigentum betrieben haben, könnten versuchen, die Kontrolle über eingesetzte KI-Systeme zu erlangen und sie für bösartige Zwecke zu missbrauchen.

Zu den empfohlenen bewährten Praktiken gehören Maßnahmen wie die Sicherung der Einsatzumgebung, die Überprüfung der Quelle von KI-Modellen und der Sicherheit der Lieferkette, die Gewährleistung einer robusten Architektur der Einsatzumgebung, die Härtung der Konfigurationen, die Validierung des KI-Systems zur Sicherstellung seiner Integrität, der Schutz der Modellgewichte, die Durchsetzung strenger Zugangskontrollen, die Durchführung externer Audits und die Implementierung einer robusten Protokollierung.

Wenn diese Sicherheitsmaßnahmen nicht beachtet werden, können böswillige Parteien Angriffe auf die Modellinversion durchführen und KI-Modelle beschädigen, um ihr erwartetes Verhalten zu manipulieren und kaskadenartige Auswirkungen zu verursachen.

Vor wenigen Wochen hat das CERT Coordination Center (CERT/CC) eine Schwachstelle in der Keras-2-Bibliothek für neuronale Netze gemeldet. Ein Angreifer könnte diese ausnutzen, um ein beliebtes KI-Modell zu manipulieren und zu verbreiten, was die Versorgungskette von abhängigen Anwendungen vergiften würde.

Neuere Forschungen zeigen auch, dass KI-Systeme anfällig für verschiedene Arten von Prompt-Injection-Angriffen sind. Diese Angriffe können das KI-Modell dazu bringen, Sicherheitsmaßnahmen zu umgehen und schädliche Ergebnisse zu produzieren.

Laut einem Bericht von Microsoft, der vor zwei Wochen veröffentlicht wurde, stellen solche Angriffe ein erhebliches Sicherheitsrisiko dar, da ein Angreifer dem KI-System Befehle erteilen kann, als wäre er der Benutzer.

Eine Technik namens Crescendo wurde als Multiturn Large Language Model (LLM)-Jailbreak beschrieben. Ähnlich wie der Many-Shot-Jailbreak von Anthropic, führt diese Methode das Modell dazu, bösartige Inhalte zu generieren, indem sie „sorgfältig ausgearbeitete Fragen oder Aufforderungen stellt, die das LLM schrittweise zu einem gewünschten Ergebnis führen, anstatt das Ziel auf einmal zu verlangen“.

LLM-Jailbreak-Aufforderungen sind bei Cyberkriminellen beliebt, die wirksame Phishing-Köder erstellen wollen. Es ist auch besorgniserregend, dass staatliche Akteure generative KI als Waffe einsetzen, um Spionage- und Beeinflussungsoperationen zu orchestrieren.

Neue Studien der University of Illinois Urbana-Champaign haben herausgefunden, dass LLM-Agenten autonom eintägige Schwachstellen in realen Systemen ausnutzen können, indem sie einfach deren CVE-Beschreibungen verwenden. Sie können „Websites hacken und komplexe Aufgaben wie die blinde Extraktion von Datenbankschemata und SQL-Injektionen ohne menschliches Feedback durchführen“.

Diesen Beitrag teilen: