Risiko KI : Warum Unternehmen jetzt handeln müssen
Der KI-Boom beflügelt auch den cyberkriminellen Untergrund. Neue Angriffsmethoden sind leichter zu generieren als je zuvor, was zu immer mehr Cyberangriffen führt. Unternehmen müssen sich jetzt vorbereiten, sonst trifft sie die nächste Welle von Cyberangriffen unvorbereitet.
Die Studienergebnisse sprechen für sich: Fast zwei Drittel (62 Prozent) der 1.000 befragten Unternehmen sehen laut Bitkom eine zumindest große Bedrohung durch analoge und digitale Angriffe. Der aktuelle Hype um die künstliche Intelligenz (KI) wird zudem zu einem rasanten Anstieg von Cyberangriffen führen. Denn KI wird nicht nur von Unternehmen und Behörden zunehmend eingesetzt, sondern auch von böswilligen Bedrohungsakteuren. Intelligenz ohne Ethik und Moral weckt Urängste. Doch dass eine superintelligente KI die Weltherrschaft an sich reißt und über Leben und Tod entscheidet, ist fraglich. Weitaus vorstellbarer sind ganz andere Gefahren – die Rede ist von böswilligen Manipulationen der KI-Algorithmen und Lerndaten.
Rational, aber nicht manipulationssicher
Künstliche Intelligenz kann Unmengen an Daten innerhalb von Sekunden auswerten und komplexe Berechnungen durchführen. Im Gegensatz zum Menschen trifft sie schnelle Entscheidungen und bleibt dabei immer rational. Sie kann nicht zwischen richtigen und falschen Eingaben oder guten und schlechten Daten unterscheiden. Entscheidungen hängen somit stets von den zum Training verwendeten Daten und den Merkmalen des Algorithmus ab. Aus diesen Gründen gibt es im Wesentlichen zwei Möglichkeiten, eine KI zu beeinflussen: durch die Manipulation ihrer Lerndaten oder durch gezielte Fehleingaben.
Hat man einen Algorithmus einmal durchschaut, verfügt man auch über Möglichkeiten, diesen gezielt zu manipulieren. Dieses Konzept wird etwa bei der SEO-Optimierung angewandt. Ein ganzer Wirtschaftsbereich beschäftigt sich mittlerweile nur damit, den Algorithmus von Google zu überlisten. Das, was sich im Suchmaschinen-Ranking etabliert hat, birgt aber auch Gefahren für Menschenleben. Autonome Fahrzeuge stehen etwa scharf unter Beobachtung. Denn Manipulationen am Navigationsalgorithmus können schnell zu Unfällen oder gar Todesfällen führen. Wenn die Sensoren beispielsweise eine rote Ampel erkennen, stoppt in der Regel das Fahrzeug und setzt die Fahrt bei Grün fort. Täuschen aber etwaige Angreifer ein grünes Signal vor, so beschleunigt die KI, ungeachtet der tatsächlichen Verkehrssituation.
Einige Tests mit Deepfakes haben zudem gezeigt, dass gefährliche Täuschungsmanöver bereits gängige Praxis sein könnten: Wissenschaftler konnten etwa denselben biometrischen Abdruck aus zwei verschiedenen Passfotos erstellen. Beim Test wurden beide Ausweise vom Personalausweisscanner akzeptiert und als für dieselbe Person passend erkannt.
Angriffsvektor Daten
Die Daten, die als Grundlage für das maschinelle Lernen dienen, stellen den zweiten Angriffsvektor dar. Hacker können das Lernverhalten der künstlichen Intelligenz lenken und Fehlfunktionen hervorrufen, indem sie diese Trainingsdaten manipulieren oder das System mit falschen Informationen füttern. Denn der Algorithmus passt sich während des Trainings permanent an, um Muster zu erkennen und Zusammenhänge zu generieren. Es ist dabei äußerst schwierig, Manipulationen in einem KI-Modell zu erkennen, da nicht nur die ursprünglich trainierten Daten, sondern auch öffentlich zugängliche Daten aus dem Internet sowie Benutzereingaben in das Modell einbezogen werden können.
Weiterhin besteht die Möglichkeit, dass Cyberkriminelle Daten aus dem KI-Modell extrahieren und daraus Rückschlüsse auf deren Quelle ziehen. Solche Vorgehensweisen würden nicht nur gegen Datenschutzgesetze verstoßen, sondern auch Sicherheitsprobleme aufwerfen. Zum Beispiel wäre vorstellbar, dass die von einem KI-System gescannten biometrischen Fingerabdrücke in die Hände von Hackern oder anderen Bedrohungsakteuren fallen.
Die Sicherheitsbranche hinkt hinterher
Im Bereich der Künstlichen Intelligenz gibt es immer mehr Arten von Angriffen, mit denen sich die IT-Sicherheit bisher nicht ausreichend auseinandergesetzt hat. Cyberkriminelle konzentrierten sich bisher auf das Eindringen in IT-Systeme, den Datendiebstahl und die Verschlüsselung von Daten oder die Lahmlegung von Systemen. Auch Künstliche Intelligenz ist von solchen Angriffen verwundbar. Das Risiko, eine KI gezielt zu manipulieren, ist sogar noch größer, denn die bekannten Sicherheitsinstrumente und Best Practices reichen hier nicht aus. Es bleibt zu hoffen, dass die ersten Hersteller von Sicherheitsprodukten hier bald aufschließen werden, bevor Bedrohungsakteure dieses Spielfeld gänzlich für sich entscheiden.
Die zahlreichen Investitionen in generative KI zeigen: Der Hype für KI ist in der deutschen Unternehmenswelt ungebrochen. Gerade deshalb stehen wir aber in der Pflicht, uns mit den Schwächen auseinanderzusetzen und frühzeitig Maßnahmen zu ergreifen. Es wäre beispielsweise sinnvoll, Algorithmen zu entwickeln, die gefälschte Eingabedaten und Manipulationen erkennen können. Des Weiteren benötigen wir zusätzliche Mechanismen und Sicherheitssoftware, um KI vor Fehlentscheidungen zu schützen.
Natürlich wird KI weiterhin eine bedeutende Unterstützung bei der Bewältigung der wichtigsten Herausforderungen der Menschheit sein. Experten sehen in der KI sogar das alleinige Mittel zur Lösung von Problemen wie der Ernährung der Weltbevölkerung oder der Dekarbonisierung. Dennoch kann die Technologie durch die Daten, mit denen sie versorgt wird und die Art und Weise, wie sie trainiert wird, manipuliert werden. Cyberkriminelle verfügen über zahlreiche Möglichkeiten, die Entscheidungen einer künstlichen Intelligenz zu manipulieren. Da eine KI ausschließlich auf Algorithmen basiert und keine moralischen Auswirkungen berücksichtigt, birgt dies Risiken. Sollten Unternehmen diese Risiken verschlafen, stehen sie gänzlich ungeschützt den kommenden KI-getriebenen Cyberangriffswellen gegenüber. Damit das nicht passiert, gilt es jetzt zu handeln.
Wolfgang Kurz ist Geschäftsführer und Gründer von indevis.
Mehr über KI-Gefahren und was Unternehmen nun tun können, finden Sie in unserem <kes>-Beitrag Von „Clever Hans“-Artefakten bis „Data Snooping“: Fehlerquellen KI-gestützter Systeme. Weitere Beiträge zum Thema KI finden Sie auch in unserem Schwerpunkt.