Mit <kes>+ lesen

KI braucht differenzierte Sichtweise : Warum eine einzige Größe nicht allen passt – und der Mensch im Mittelpunkt eines guten Sicherheitsbetriebs bleiben sollte

Viele Hoffnungen ruhen auf künstlicher Intelligenz (KI) – auch in Sachen Sicherheit. Doch wie viele davon kann die heutige Technik schon erfüllen? Der vorliegende Beitrag wirft einen kritischen Blick auf die aktuelle Entwicklung und auf ethische Fragen.

Lesezeit 6 Min.

Von Sohrob Kazerounian, Boston (US/MA)

Das rasante Tempo, mit dem sich die künstliche Intelligenz (KI) in den letzten Jahren entwickelt, hat begonnen, in den verschiedensten Bereichen transformative Effekte zu erzielen. In einer zunehmend vernetzten Welt, in der Cyberangriffe in alarmierender Häufigkeit und Größenordnung auftreten, ist es kein Wunder, dass sich auch die Cybersicherheit auf KI und maschinelles Lernen (ML) konzentriert, um Angreifer zu erkennen und abzuwehren. Der Einsatz von KI erweitert dort nicht nur den Anwendungsbereich dessen, was ein einzelner Sicherheitsexperte überwachen kann, sondern ermöglicht vor allem auch die Entdeckung von Angriffen, die sonst für den Menschen nicht erkennbar wären. Doch leider gilt auch hier, dass mit der KI kein Allheilmittel gefunden wurde, sondern eine differenzierte Sichtweise auf Chancen und Risiken notwendig ist.

Kein Universaloptimum

Trotz der jüngsten Explosion im Bereich der ML- und KI-Forschung gibt es etwa keine einzelne Methode und keinen einzelnen Algorithmus, der in allen Fällen am besten funktioniert. Dies wurde bereits in den 1990er-Jahren von David H. Wolpert formalisiert und in einem mathematischen Paper veröffentlicht, das als „No-Free-Lunch“-Theorem bekannt ist [1,2]: Kein einzelner Algorithmus übertrifft alle anderen Algorithmen über alle möglichen Problemzonen hinweg, besonders wenn er unter verschiedenen realen Bedingungen wie räumlicher und zeitlicher Komplexität und Verfügbarkeit von Trainingsdaten betrachtet wird.

Daher müssen auch KI-Systeme, die darauf ausgelegt sind, fortgeschrittene Cybersicherheitsbedrohungen zu erkennen, auf die spezifischen Probleme zugeschnitten sein, für die sie eingesetzt werden. Sie sollten die besten verfügbaren Tools und Algorithmen für diejenigen Erkennungsarten nutzen, für die sie bestimmt sind. Wie in anderen Bereichen sind KI-Systeme auch in diesem Anwendungsfeld nach den folgenden Kriterien zu validieren:

  • Kann das KI-System erkennen, klassifizieren und Vorhersagen treffen, die allein durch den Menschen nicht möglich gewesen wären?
  • Nimmt das KI-System Vorhersagen und Klassifizierungen vor, die den Umfang der erforderlichen menschlichen Eingriffe und Analysen reduzieren? Trifft es Vorhersagen und Klassifizierungen, welche die Anzahl der erforderlichen menschlichen Eingriffe und Analysen erhöhen?

Die Entwicklung eines KI-Systems, das in der Lage ist, zu lernen, um beide Ziele gleichzeitig zu erreichen, erfordert sowohl ein tiefes Verständnis des Problemraums als auch ein breites Verständnis von maschinellen Lernalgorithmen im Allgemeinen.

Versuche, monolithische Lösungen zu verwenden, die einheitlich über die unzähligen Sicherheitsbedrohungen und Einfallstore in modernen Netzwerken informiert werden, verfehlen das erstgenannte Ziel – zugleich erzeugen sie zu viele falsche Erkennungen.

Außerdem erfordert die Verwendung mehrerer Techniken oder Algorithmen, um jede Art von Bedrohung unabhängig voneinander zu erkennen, ein komplexes Wissen darüber, wie jeder Algorithmus funktioniert und welche Möglichkeiten er haben könnte: Unvollständiges Wissen über einen Algorithmus kann zu unterdurchschnittlichen Fähigkeiten eines Systems führen, eine bestimmte Bedrohung zu erkennen. Hinzu kommt der zusätzliche Arbeitsaufwand, der für Netzwerkadministratoren aufgrund von Fehlalarmen entsteht.

Ethische Fragen

Ist es also heute wirklich an der Zeit, die Verantwortung für den Sicherheitsbetrieb auf Maschinen zu übertragen? Im Februar 2014 schrieb Martin Wolf für die Londoner Financial Times einen Beitrag mit dem Titel „Enslave the robots and free the poor“ und begann mit den folgenden Worten: „1955 erzählte Walter Reuther, Chef der US-Autoarbeitergewerkschaft, von einem Besuch in einem neuen automatisch betriebenen Ford-Werk. Sein Gastgeber zeigte auf alle Roboter und fragte: Wie willst du die Gewerkschaftsbeiträge von diesen Typen einziehen? Reuther antwortete: Und wie willst du sie dazu bringen, Ford zu kaufen?“

Die grundlegende Spannung, die Wolf zwischen menschlicher Arbeit und Automatisierung aufzeigt, existiert seit jeher. Sie macht nicht nur einen großen Teil der akademischen Literatur zur politischen Ökonomie aus, sondern entzündete auch weltweit viele Arbeitskämpfe. Die Ludditen zum Beispiel waren eine Bewegung von Textilarbeitern und Webern, die sich der Mechanisierung von Fabriken widersetzten – nicht weil sie prinzipiell gegen Maschinen waren, sondern weil diese zur Ausbeutung von Arbeitern führten, die nicht an den Gewinnen aus der erhöhten Produktivität durch die Automatisierung beteiligt wurden.

Solche Themen werfen Fragen auf, die den Kern unserer Vorstellungen von Recht und Ethik betreffen, wie das unvermeidliche Trolley-Problem, das bei selbstfahrenden Autos auftauchen wird: Was sollte ein selbstfahrender Wagen tun, wenn der einzige Weg, einen für seine Insassen tödlichen Unfall zu vermeiden, darin besteht, so auszuweichen, dass sicherlich eine noch größere Zahl von Dritten ums Leben kommen würde? Die Thematik setzt sich fort bis hin zu weitreichenden existenziellen Fragen wie Rolle oder Zweck des Menschen in einer Welt mit superintelligenter KI.

Dennoch bleibt nach Meinung von Vectra die drängendste Frage: Wie sollen wir die Wirtschaft und – allgemeiner gesagt – die Gesellschaft in einer Welt organisieren, in der große Teile der menschlichen Arbeit zu verschwinden beginnen? Vereinfacht ausgedrückt: Wie werden Menschen leben, wenn sie keine Arbeit bekommen, weil man sie durch kostengünstige, leistungsfähigere Maschinen ersetzt?

In den letzten Jahren wurden zahlreiche Studien veröffentlicht und Institute eingeweiht, die sich der Frage widmen, welche Aufgaben der Zukunft in den Händen des Menschen bleiben und welche an die Maschinen verteilt werden. So versuchte beispielsweise der „2013 Oxford Report on The Future of Employment“ [3] zu beschreiben, welche Kategorien von Arbeitsplätzen vor der Automatisierung sicher und welche am stärksten gefährdet sind. Die Studie versuchte dabei Wahrscheinlichkeiten zu ermitteln, wie „computerisierbar“ verschiedene Arbeitsplätze sind: Sie und viele weitere Studien argumentieren im Allgemeinen, dass es weniger wahrscheinlich ist, dass kreative Jobs, etwa von Künstlern und Musikern, automatisiert werden. Dennoch leben wir in einer Welt, in der das erste von einer KI generierte Bild bei Sotheby’s für fast 500.000 US-Dollar verkauft wurde – und The Verge hat schon 2018 einen Artikel darüber veröffentlicht, wie KI-generierte Musik die Art und Weise verändert, wie Hits gemacht werden.

Reifegrad und Notwendigkeit

Es gibt zwar keine klaren Regeln dafür, welche Arten von kognitiven und manuellen Arbeitsplätzen sich ersetzen lassen, aber die jüngste Anwendung fortschrittlicher Techniken der KI und des maschinellen Lernens im Bereich der Cybersicherheit wird die Sicherheitsanalysten höchstwahrscheinlich nicht arbeitslos machen.

Diese Argumentation erfordert ein Verständnis für die Komplexität der Cybersicherheit und den aktuellen Stand der KI: Versierte Cyberkriminelle bringen ständig neue Methoden hervor, um Netzwerke und Computersysteme anzugreifen – darüber hinaus entwickeln sich die Netzwerke und die damit verbundenen Geräte ständig weiter, vom Betrieb neuer und aktualisierter Software bis hin zum Hinzufügen neuer Hardwaretypen im Zuge des technischen Fortschritts.

Demgegenüber ist der aktuelle Status der KI zwar fortgeschritten, ähnelt aber in seiner Funktionsweise dem menschlichen Wahrnehmungssystem: KI-Methoden können Muster in Datenströmen verarbeiten und erkennen, ähnlich wie das menschliche Auge eingehende visuelle Signale und das Ohr akustische Signale verarbeitet. KI ist jedoch noch nicht in der Lage, das gesamte Wissen eines erfahrenen Systemadministrators abzudecken – weder das Wissen über die Netzwerke, die er verwaltet, noch über das komplexe Geflecht aus Gesetzen, Unternehmensrichtlinien und Best Practices, die regeln, wie man am besten
auf einen Angriff reagiert.

Die Entwicklung des Taschenrechners reduzierte ja auch nicht etwa das Bedürfnis der Menschen, die Mathematik zu verstehen, sondern erweiterte vor allem Umfang und Möglichkeiten dessen, was man wie schnell berechnen konnte. Daraus entstand die Notwendigkeit, dass Menschen mit mathematischem Verständnis diese Möglichkeiten erkunden.

Auch die KI ist nur ein Werkzeug, das den Umfang und die Möglichkeiten der Erkennung von Cyberangriffen erweitert, die sonst nicht erkennbar wären. Wer einmal versucht hat, sich eine hochfrequente, mehrdimensionale Zeitreihe von Datenverkehr anzusehen und zu entscheiden, ob dieser einen Angriff darstellt oder gutartig ist, weiß die Vorteile von KI sicher zu schätzen. Auf absehbare Zeit wird KI nach Meinung von Vectra jedoch einfach ein Werkzeug bleiben, das es ermöglicht, immer wieder neue, fortschrittliche Cyberangriffe zu erkennen und darauf zu reagieren – und nicht zum „besseren nichtmenschlichen Analysten“ mutieren.

Sohrob Kazerounian ist Senior Data Scientist für Artificial Intelligence, Machine- und Deep-Learning bei Vectra (https://vectra.ai).

Diesen Beitrag teilen: