NIST warnt vor Sicherheits- und Datenschutzrisiken durch KI-Systeme
Das U.S. National Institute of Standards and Technology (NIST) macht auf die Herausforderungen für den Datenschutz und die Sicherheit aufmerksam, die sich aus dem zunehmenden Einsatz von Systemen mit künstlicher Intelligenz (KI) in den letzten Jahren ergeben haben. Vor einer übereilten Einführung wird dringend abgeraten.
Wie das NIST betont, sind KI-Systeme verschiedenen Gefahren ausgesetzt. Das beinhaltet die potenzielle Manipulation von Trainingsdaten durch Angreifer, die Ausnutzung von Modellschwachstellen durch Angreifer, um die Leistung des KI-Systems zu beeinträchtigen, und sogar böswillige Manipulationen, Modifikationen oder die bloße Interaktion mit Modellen, um sensible Informationen über die in den Daten dargestellten Personen, über das Modell selbst oder geschützte Unternehmensdaten auszuspionieren.
KI-Systeme, wie beispielsweise OpenAI ChatGPT und Google Bard, werden schnell in Online-Dienste integriert. Dies hat dazu geführt, dass die Modelle, die diese Technologien unterstützen, in verschiedenen Phasen des Lernprozesses zahlreichen Bedrohungen ausgesetzt sind. Dazu gehören verfälschte Trainingsdaten, Sicherheitsmängel in den Softwarekomponenten, Manipulation von Datenmodellen, Schwachstellen in der Lieferkette und Datenschutzverletzungen infolge von Prompt-Injection-Angriffen.
„Oft benötigen Softwareentwickler eine größere Nutzerbasis, um die Leistung ihres Produkts zu verbessern“, erklärte der NIST-Informatiker Apostol Vassilev. „Allerdings besteht bei KI keine Gewähr dafür, dass eine größere Verbreitung immer vorteilhaft ist. Ein Chatbot kann, wenn er mit geschickt formulierten Sätzen konfrontiert wird, auch schlechte oder schädliche Informationen liefern.“
Die Angriffe, die erhebliche Auswirkungen auf die Verfügbarkeit, die Integrität und den Datenschutz haben können, lassen sich grob wie folgt einteilen:
- Umgehungsangriffe: Diese zielen darauf ab, nach dem Einsatz eines Modells eine gegnerische Ausgabe zu erzeugen.
- Vergiftungsangriffe: Das Ziel ist hier, die Trainingsphase des Algorithmus zu manipulieren, indem gefälschte Daten eingespeist werden.
- Angriffe auf die Privatsphäre: Sie haben zum Ziel, sensible Informationen über das System oder seine Trainingsdaten zu erhalten, indem sie Schutzmaßnahmen umgehen.
- Missbrauchsangriffe: Hier wird versucht, legitime Informationsquellen zu kompromittieren, um das System für böswillige Zwecke zu nutzen.
Das NIST hebt hervor, dass diese Angriffe von verschiedenen Typen von Angreifern durchgeführt werden können – von solchen, die das System sehr gut kennen, bis hin zu solchen, die nur begrenztes Wissen darüber haben. Die Behörde kritisiert auch das Fehlen effektiver Maßnahmen zur Abwehr dieser Risiken und fordert die Tech-Gemeinschaft auf, bessere Schutzmaßnahmen zu entwickeln.
Die Entwicklung kommt mehr als einen Monat, nachdem Großbritannien, die USA und internationale Partner aus 16 anderen Ländern Leitlinien für die Entwicklung sicherer Systeme der künstlichen Intelligenz (KI) veröffentlicht haben. „Obwohl KI große Fortschritte gemacht hat, sind diese Technologien anfällig für Angriffe, die zu schwerwiegenden Fehlern führen können“, so Vassilev. „Es gibt immer noch grundlegende Sicherheitsprobleme bei der Absicherung von KI-Algorithmen, die noch nicht gelöst sind. Jeder, der etwas anderes behauptet, verkauft Illusionen.“