Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Artikel kostenlos lesen

Künstlich muss nicht menschlich sein : Über die „anderen“ Grenzen von Security-KI

Diskussionen über das Potenzial künstlicher Intelligenz (KI) für die Informationssicherheit kreisen meist um die Hardwareleistung und die Qualität der Algorithmen. Limitationen der KI, die auf ihrer beschränkten Sensorik und schwach ausgeprägten Fähigkeiten zur Modellbildung beruhen, lassen sich allerdings nicht einfach durch die quantitative und qualitative Steigerung von Rechenleistung überwinden. Doch ein geschickter Einsatz der KI macht diese Grenzen wieder wett.

Lesezeit 16 Min.

Von Bettina Weßelmann und Johannes Wiele, München

Künstliche Intelligenz (KI) in der Informationssicherheit stößt bei den Anwendern auf eine auffallend „binäre“ Ausprägung der Erwartungshaltungen: Sie wird weit häufiger als traditionelle Technik radikal über- oder unterschätzt und weit seltener nüchtern und pragmatisch bewertet (vgl. <kes> 2019#3, S. 3). Sowohl Befürworter als auch Skeptiker sind sich allerdings meist darin einig, dass eine signifikante Steigerung der schon heute erzielbaren Leistung von KI-Systemen durch noch schnellere Prozessoren, qualitativ hochwertigere Ausgangsdaten und eine weitere Verbesserung der Algorithmen zu erzielen sei.

KI stößt aber auch an Grenzen, die durch pure Weiterentwicklung der bestehenden Technik oder durch ausgefeiltere Algorithmen nicht zu beseitigen sind: die Limitation ihrer Sensorik, die ihr vor allem den Zugang zu menschlichen Faktoren des IT-Betriebs verwehrt, und die gering ausgeprägte Fähigkeit, „Was-wäre-wenn“-Modelle etwa zur Vorwegnahme kreativer Angriffsstrategien zu entwickeln.

Ein genauerer Blick auf beide Defizite ergibt allerdings, dass sich in der Praxis mit diesen Schwächen gut leben lässt – und dass es auch mittelfristig sinnvoller sein kann, diese Gebiete den dafür besser gerüsteten Menschen zu überlassen und KI-Entwicklungsressourcen primär in eine weitere Optimierung derjenigen Anwendungsbereiche zu stecken, in denen die künstliche Intelligenz den Menschen schon jetzt aussticht. Der krampfhafte Versuch, menschliche Intelligenz bei der Abwehr von Cybergefahren komplett durch KI zu ersetzen, führt demgegenüber schnell zu Lösungsansätzen, die teils gefährliche Nebenwirkungen hätten und teils völlig utopisch sind.

Sensorische Grenzen

Wie eine unzureichende Sensorausstattung eine KI in der Informationssicherheit limitiert, lässt sich bereits auf der Ebene der eigentlich schon gut beherrschbaren Anbindung technischer Informationsquellen an moderne Angriffserkennungssysteme im Security-Operations-Center (SOC) nachvollziehen. Die Effektivität der dort meist anzutreffenden Security-Information- und -Event-Management-(SIEM)-Produkte hängt stark davon ab, wie viele Log-Quellen an die Korrelationslogik angeschlossen sind und ob es genau diejenigen sind, die eine Attacke auf kritische Datenbestände oder Systeme tatsächlich erkennbar machen. Je individueller die Soft- und Hardware in einer Organisation ausfallen, desto höher wird außerdem der Entwicklungsaufwand, um die permanent anfallenden Betriebsdaten für das Security-Monitoring über Schnittstellen und Parser dem SIEM verständlich zu machen.

Ein Bereich, in dem dieser Effekt besonders häufig zu Buche schlägt, ist die Computertechnik in Produktionsumgebungen. Maschinen und ihre Steuerungen laufen hier mitunter über 30 Jahre lang und werden überdies von den Maschinenbauabteilungen der Anwender oft stark an die jeweiligen Herstellungsprozesse angepasst oder sogar komplett selbst gebaut. Standardkonnektoren aus der IT-Welt können mit dem Output solcher Konstrukte selten etwas anfangen. Deshalb existiert bereits eine wachsende Zahl von Anbietern, die sich auf Sensorik und Anomalieerkennung in der produktionsspezifischen IT (OT, ICS) spezialisieren und die Resultate an gängige SOC-Technik weiterleiten.

Und in der klassischen IT selbst treten Anbieter auf, die den Anwendern eine Abkehr von der Log-Auswertung als Hauptinformationsquelle für die Angriffserkennung empfehlen und stattdessen die Analyse von Paket-Metadaten propagieren, um wenigstens einen Teil der Anbindungs- und Schnittstellenproblematik zu neutralisieren.

Kein Draht zum „menschlichen Faktor“

Schon der Zugang zur realen Welt der Produktionshallen fällt der modernen Security-KI also schwer. Noch größere Hindernisse muss sie überwinden, wenn sie auch menschliche Faktoren berücksichtigen soll. Kreativ arbeitende Menschen, die im Umgang mit der IT große Freiheiten haben, stören vor allem die Treffsicherheit von Anomalieerkennungssystemen, so ausgefeilt diese auch sein mögen (vgl. [1]).

Neue Business-Prozesse, nie zuvor durchgeführte Recherchen und Datenauswertungen, die Einführung neuer Business-Rollen mit im Unternehmen bisher nicht bekannter Kompetenzverteilung, Verlagerung von Tätigkeiten zu externen Dienstleistern – all dies sind Beispiele für wirtschaftlich motivierten Erfindungsgeist, dessen Auswirkungen einem Angriffserkennungssystem als ungewöhnlich und damit verdächtig erscheinen können und somit potenziell einen Alarm auslösen. Manche solcher Tätigkeiten – vor allem diejenigen, die mit intensiven Recherchen verbunden sind – ähneln überdies den typischen Vorgehensweisen von Datendieben, sodass auch regelbasierte Systeme auf sie ansprechen.

Welche Folgen dies im Detail hat und wie schwierig diese Problematik zu überwinden sein dürfte, zeigt das in Form einer kleinen Geschichte zusammengestellte Diskussionsszenario, das Sie im Textkasten zu diesem Beitrag finden. Es hat den Autoren in dieser Form schon in Hochschulseminaren und Präsentationen zur Verdeutlichung der Stolpersteine gedient, welche die moderne KI ins Straucheln bringen und zum Ärgernis für ihre Anwender machen können. Die Handlung der Beispielerzählung setzt sich aus realen Erfahrungen realer Anwender zusammen und wurde lediglich zugespitzt und pointiert.

Big-Brother-Gefahren

Ihre eigentliche Bedeutung offenbart die kleine Story dann, wenn man versucht, sich eine KI-Implementierung vorzustellen, die angesichts des Anomaliebeispiels zu den gleichen Schlüssen kommen könnte wie der menschliche CISO und deshalb keine False-Positive-Meldung produziert. Das Ergebnis vorab: Eine solche KI wäre eine Datenkrake und Überwachungsinstanz, die keinerlei Akzeptanz finden würde.

Der Vorsprung des Menschen resultiert im Ereigniszusammenhang der Erzählung nämlich aus Informationen, die er über einen langen Zeitraum hinweg auch an Orten und bei Gelegenheiten gesammelt hat, an denen Securitysensorik nichts zu suchen hat: Kantine, private Feste, an der Kaffeemaschine und so weiter. Die dort aufgenommenen Informationen korreliert der Beispiel-CISO mit Grundkenntnissen über menschliches Verhalten und menschliche Schwächen, die sich teils aus der Beobachtung Fremder und teils aus Erfahrungen mit dem eigenen Geist und Körper speisen. Hinzu kommen dann noch aus Interesse und Neugier gesammelte Informationen über die wirtschaftliche Tätigkeit des eigenen Unternehmens und der eigenen Branche.

Diese Datenbasis steht dem CISO aufgrund der eigentümlichen Funktionsweise des menschlichen Gehirns und Gedächtnisses zu einem großen Teil nur halb bewusst zur Verfügung, kann bei einer konkreten Beurteilungsaufgabe aber zumindest teilweise reaktiviert werden – dies gelingt in der Geschichte. Das für Menschen typische „halbe Vergessen“ sensibler Daten und die Bindung des Zugangs dazu an den Geist und Körper eines einzigen Menschen gibt es bei KI-Technik normalerweise nicht.

Wollte man die Speicher- und Auswertungsleistung, die der CISO vollbringt, mittels heutiger Computertechnik realisieren, entstünde ein gewaltiger Data-Lake mit anlassloser Vorratsdatenspeicherung auch sensibelster privater Informationen – darunter in diesem Fall selbst die Bewegungsprofile und sogar das Verhalten einzelner Mitarbeiter in Stresssituationen. Die Sensorik, die zur Erfassung der fraglichen Daten notwendig wäre, hätte ungeheure Dimensionen: Kameras und Mikrofone in allen Büros und privaten Rückzugsgebieten von Menschen, deren Tun und Lassen auch nur irgendeine Auswirkung auf den Sicherheitsstatus des Unternehmens haben könnte. Solch ein Konzept könnte und dürfte nicht umgesetzt werden – auch deshalb, weil eine Datenbasis der beschriebenen Art mit Sicherheit unvorhersehbare Auswertungsinteressen wecken würde.

Der blinde Fleck

Sinnvoll wäre es allerdings, Informationen aus der menschlichen Sphäre Angriffserkennungssystemen dann zur Verfügung zu stellen, wenn dazu ein konkreter Anlass besteht. Dies wäre beispielsweise der Fall, wenn ein Mitarbeiter eine mögliche Social-Engineering-Attacke erlebt oder sicherheitskritisches Verhalten beobachtet und sich danach selbst fragt, wem er sein Erlebnis auf welche Weise mitteilen könnte.

Solche Erkenntnisse den Abwehrteams in einem SOC oder sogar direkt der dort lauernden Korrelationsmaschinerie zugänglich zu machen (Welche Art von Human-Factor-Angriff hat stattgefunden? Wann kam es dazu? Auf welches Asset zielte der Versuch?) könnte einen „blinden Fleck“ der Angriffsabwehr mildern, der durchaus bedeutsam ist. Denn gerade die ausgefeiltesten gezielten Angriffe auf Organisationen kombinieren mit hoher Wahrscheinlichkeit technische Schritte mit auf Menschen gerichteten Manipulationsversuchen. Die Entwicklung entsprechender Interfaces [2] ist schwierig, weil eine Reihe psychisch bedingter und mit dem Datenschutz sowie der Unternehmenskultur verwobener Probleme gelöst werden müssen. So gilt es zum Beispiel, die verständlichen Hemmnisse überwinden zu helfen, die Mitarbeiter von Meldungen der beschriebenen Art abhalten – etwa, weil sie fürchten, jemand anderen vielleicht ungerechtfertigt in ein schlechtes Licht zu rücken. Der Meldende darf zudem keine Sanktionen befürchten müssen, auch wenn er eigene Fehler oder Fehlverhalten offenbart – und so weiter.

Anonymisierung könnte dafür eine Lösung sein. Auf der technischen Ebene besteht dann noch die Herausforderung der maschinengerechten Aufbereitung von Inputs, die zunächst einmal als vielleicht verworrene, lückenhafte und zögerlich vorgetragene Berichte daherkommen. Dennoch würde es sich lohnen, auf diesem Gebiet verstärkt nach möglichen Herangehensweisen zu suchen.

Diskussionsszenario zu sensorischen Grenzen der KI in der Informationssicherheit

Die folgende Modellszene spielt in einem High-Tech-Unternehmen im Süden Deutschlands, das in seiner Branche den Status eines „Hidden Champions“ genießt. Die Verantwortlichen für Informationssicherheit wissen, dass ihre Organisation jederzeit Opfer von Industriespionage werden könnte, und haben deshalb Security-Intelligence in Form eines SIEM-Systems implementiert. Alarme dieses Werkzeugs erreichen das Securityteam rund um die Uhr.

In einer Nacht gegen 1:30 Uhr reißt eine SIEM-Warnung den CISO aus dem Schlaf. Was er liest, stellt sich in allgemeinverständlicher Sprache folgendermaßen dar: Seit 1:15 Uhr werden Anmeldeversuche an kritischen internen Systemen registriert, die von einer IP-Adresse im Ausland ausgehen. Am zentralen Server der Entwicklungsabteilung gab es sieben Zugriffsversuche mit falschem Kennwort, dann erst gelang eine erfolgreiche Anmeldung. Der Akteur hat sich auf dem Server umgesehen und netzwerkweit nach kritischen Begriffen gesucht. Seit einer Minute versucht er, als vertraulich klassifizierte Daten in großer Menge nach außen zu kopieren. Der fragliche User hat auf diese Informationen zuvor noch nie zugegriffen. Empfehlung: Transfer sofort stoppen, Server isolieren.

Der Alarm resultiert aus der Kombination zweier grundlegender, relativ einfacher KI-Verfahren: Anomalieerkennung (im Beispiel vermutlich als Resultat einer automatischen Lernphase) und Mustererkennung auf der Basis von Regeln, die hier wahrscheinlich von einem Threat-Intelligence-Team nach der Auswertung typischer Kill-Chains formuliert und der Korrelationsengine des SIEM als Muster oder Modell zur Verfügung gestellt wurden. Hinzu kommen interne Kontextinformationen, aus denen hervorgeht, dass sich die registrierten Aktivitäten auf kritische Informationen beziehen.

Drei konkrete Anomalien wurden erkannt: fehlgeschlagene Anmeldeversuche, Transfer von klassifizierten Daten nach außen und für einen spezifischen Anwender ungewöhnliche Aktionen. Zusammen mit einer hinterlegten Regel, welche die Kill-Chain Abfolge „Reconnaissance – Exfiltration“ beschreibt (erst Erkundung des Netzes, dann Datentransfer), ist dies formal tatsächlich Grund genug für einen Angriffsverdacht.

Unser beispielhafter CISO liest die Warnung, denkt einen Moment nach und führt ein kurzes Telefonat. Dann stoppt er überraschenderweise nicht etwa den Datentransfer, sondern für ein gewisses Zeitfenster die Warnungen des SIEM-Systems.

Warum das? Rückblende: Der CISO hat vor einigen Tagen bemerkt, dass die wichtigste Messe für Unternehmen seiner Branche wieder einmal unmittelbar bevorsteht (Information 1). Ein internes Memo hat ihm mitgeteilt, dass sein Unternehmen (Information 2) auf dieser Messe (Information 3) ein neues Produkt zeigen wird (Information 4), hinter dem über vier Jahre intensiver Entwicklung stecken (Information 5). Dem CISO ist außerdem klar, dass für die Zukunft viel vom Erfolg dieses Produkts abhängt (Information 6).

In der Kantine sind ihm mittags die müden, übernächtigten Gesichter das Marketingteams aufgefallen (Information7). Von einer Betriebsfeier vor ein paar Monaten ist ihm in Erinnerung geblieben, dass der Marketingchef und seine Mitarbeiter immer dann, wenn sie ungestört sein wollen und unter Hochdruck arbeiten, in ein Ferienhaus in Österreich ausweichen (Information8). Genau das dürfte jetzt wieder der Fall sein (Schlussfolgerung), denn auf der Messe werden Prospekte, Handbücher, Plakate und vieles mehr benötigt (Information 9).

Aus Erfahrung weiß der CISO außerdem noch, dass die Complianceabteilung seines Hauses mit der Herabstufung der Vertraulichkeit von Dokumenten zeitlich fast immer der Realität hinterherhinkt (Information 10). Auch dies könnte jetzt zutreffen: Da der Messeauftritt bevorsteht, sind die Kenndaten des neuen Produkts plötzlich nicht mehr geheim, sondern binnen weniger Stunden zu Verkaufsargumenten mutiert (Wissen, Erfahrung, Kombination).

All dies zusammen lässt den CISO erkennen, dass das SIEM-System mit hoher Wahrscheinlichkeit keinen Angriff registriert hat, sondern die Arbeit des Marketingteams, die tunlichst nicht behindert werden sollte. Ein paar Fehlanmeldungen in Reihe können schließlich schon einmal passieren, wenn man einen bestimmten Server selten besucht und überdies übermüdet ist (Wissen über die menschliche Konstitution, Selbsterfahrung). Der CISO greift also nicht ein, sichert seine Hypothese aber vorsichtshalber per Anruf ab (Risikomanagement).

Ein utopischer Ansatz

Ernst gemeinte technische Utopien und intelligent gemachte Science-Fiction diskutieren auffallend gern eine mögliche Strategie zur Überwindung der hier relevanten Schnittstellenproblematik zwischen Mensch und Maschine, die lange Zeit als rein fantastisch gelten musste: den Einsatz von Robotern.

Ein etwas genauerer Blick auf die mehr oder weniger menschenähnlichen Kunstwesen (etwa C-3PO im Star-Wars-Universum, Ash in der Alien-Reihe, Data bei Star Trek und viele mehr) bietet sich nicht zuletzt angesichts neuester Forschung zu möglichen Arbeitsfeldern an, in denen man sich Roboter bis vor relativ kurzer Zeit auf keinen Fall vorstellen konnte: etwa als Assistenten an Infopunkten in Hotels und Flughäfen und sogar bei der Pflege körperlich oder geistig beeinträchtigter Menschen.

Die Science-Fiction-Stories können als durchaus erhellende spekulative Modellanordnungen für die Diskussion der Akzeptanz- und Einsatzbedingungen von Robotern fungieren. Die Figur des „Lieutenant Commander Data“ aus Star Trek ist in dieser Hinsicht besonders lohnend: Physisch und auf dem Gebiet der mathematischen Intelligenz den menschlichen Besatzungsmitgliedern bei Weitem überlegen, erzeugt er dennoch keine Ängste, weil er als menschenähnliche Gestalt zwischen ihnen agiert und mit seinen Schwächen beim Verständnis menschlicher Emotionen zuweilen unfreiwillig komisch und damit unvollkommen wirkt. Letzteres ist der KI-Forschung zufolge ein wichtiger differenzierender Faktor, der die sonst potenziell beunruhigende Ähnlichkeit zu echten Menschen reduziert [3].

Anders als bei einem Computer, der mit unsichtbaren Sensoren überall präsent sein kann, lässt sich bei Data jederzeit beobachten, wann er Informationen aufnimmt, was er damit tut und wie er reagiert. Die Designer der Science-Fiction-Serie haben dieses Konzept so weit getrieben, dass der Android keine direkte (drahtlose) Verbindung zum ebenfalls KI-fähigen Computer des Raumschiffs hat, in dem er sich aufhält. Interagiert er mit diesem System, nutzt er die gleichen Schnittstellen (Monitor, Tastatur, Stimmerkennung) wie seine menschlichen Kollegen, wenn auch mit teilweise rasant erhöhter Geschwindigkeit – nur in Ausnahmefällen wird er schon einmal direkt mit einem Computer verkabelt.

Das Unheimliche der Leistungsfähigkeit der KI und ihrer Sensorik wird somit neutralisiert, indem man beides an die physische Gestalt des Androiden bindet. Die Kommunikation zwischen Mensch und Maschine gelingt, weil die technische Vernetzung der „Partner-KI“ so weit zurückgenommen wird, dass sie nicht permanent Daten mit weiteren, unkontrollierbar erscheinenden Instanzen austauscht. Für eine optimale, unbelastete Mensch-Maschine-Kommunikation muss man also gegebenenfalls auf eine optimale Maschine-Maschine-Kommunikation verzichten.

Was hat nun all dies mit der konkreten SOCArbeit und der besonderen Leistung des CISO in der Beispielgeschichte zu tun? Die Antwort: Der Versuch, mit KI den Fähigkeiten des Menschen nahezukommen, wenn es um die Einbeziehung menschlicher Faktoren in die Angriffserkennung geht, stößt auf mehrdimensionale Sensorik-Probleme. Sie lösen zu wollen, würde schlecht beherrschbare Big-Brother-Szenarien heraufbeschwören oder auf so utopische Ansätze wie die Integration eines künstlichen Menschenwesens ins SOC-Team hinauslaufen, das auch menschliche Limitationen imitiert.

Folgerungen

Statt auf eine Ablösung der teuren Fachkräfte in der Security zu spekulieren, sollten Organisationen ihre Energien lieber auf eine möglichst geschickte Arbeitsteilung zwischen Mensch und Maschine fokussieren. Auch auf längere Sicht bleibt es die effektivste Lösung, wenn der Mensch die kreativen Aufgaben und die Beurteilung von möglichen Problemen übernimmt, während die Maschine dieselben erst einmal aufspürt. Das stundenlange Beobachten von Datenströmen und Kommunikationsabläufen auf mögliche Abweichungen oder bekannte Angriffsmuster hin beherrscht KI heute schon besser als Menschen, die zwar auch dazu fähig sind, bei dieser Form einer stupiden und doch hoch anspruchsvollen Tätigkeit aber schnell ermüden und mit Frustration reagieren. Ein „Teaming“, das die jeweiligen Stärken menschlicher und künstlicher Intelligenz berücksichtigt, reduziert diese Störfaktoren.

Was wäre, wenn (nicht)?

Die im Kasten erzählte CISO-Geschichte gibt wieder, wie schnell und mühelos ein Mensch ein fakultatives Deutungsmodell eines komplexen Geschehens bilden kann: Der CISO prüft den möglichen Angriff auf das ihm anvertraute IT-System mit einem „Was wäre, wenn nicht?“-Ansatz. Er kommt zu einer alternativen Deutung, die er anhand von Fakten erhärten und auf einfache Weise verifizieren kann. So verhindert er eine False-Positive-Reaktion mit negativen Folgen für sein Unternehmen.

Auch „Was wäre, wenn?“-Modelle spielen in der Informationssicherheit eine wichtige Rolle. Sie stecken heute zum Beispiel in den Angriffsmustern, die den Betreibern von KI-gestützten Erkennungssystemen meist von den Security-Intelligence-Teams der Anbieter zur Verfügung gestellt werden. Die hierbei sichtbare Arbeitsteilung beruht wiederum auf der bestmöglichen Kombination von Schwächen und Stärken sowohl der künstlichen als auch der menschlichen Intelligenz: Menschliche Spezialisten entwickeln aus der Beobachtung und Auswertung realer Geschehnisse potenzielle Angriffsszenarien, identifizieren typische Erkennungsmerkmale (Indicators of Compromise) und machen das Resultat dann als technische Beschreibung der lokalen KI beim Kunden zugänglich. Für konkrete Umgebungen müssen die SOC-Teams der KI-Anwender selbst versuchen, wie ein Angreifer zu denken, und aus den potenziellen Attack-Chains, die sie sich ausdenken, „Use-Cases“ und Regeln ableiten.

In seinem Beitrag „Grenzen des undurchsichtigen Lernens“ in der Süddeutschen Zeitung [4] weist der KI-Forscher Judea Pearl darauf hin, wie wenig KI heute zu entsprechender Modellbildung fähig ist und wie weit auch hochentwickelte Techniken wie das Deep Learning davon entfernt sind. Die heute üblichen KI-Ansätze sind für ihn weitgehend „modellblind“: Der menschlichen Fantasie ist es möglich, komplexe Szenarien mit einer gewissen Ähnlichkeit zu bereits bekannten Abläufen in anders strukturierte Umgebungen zu transferieren und beispielsweise die Folgen neuer Geschäftsideen oder IT-Betriebsbedingungen vorwegzunehmen. Die hochkomplexe Anpassung der Parameter (Was bleibt gültig? Was wird anders sein?) fordert Menschen zwar heraus, gelingt ihnen aber häufig recht gut – KI, wie sie heute für die Security zur Verfügung steht, kann das nicht.

Fazit

Die Stärke der KI in der Informationssicherheit ist das schnelle und unermüdliche Monitoring von komplexen IT-Umgebungen auf Anzeichen schädlicher Aktivitäten. Pragmatisch gesehen profitieren Anwender derzeit am meisten davon, wenn die Technik auf diesen Einsatzzweck hin weiterentwickelt wird. Was dann nämlich für den Menschen bleibt, entspricht seinen Stärken und macht als Arbeitsauftrag sogar Spaß: die kreative Jagd auf ebenfalls menschliche Angreifer. Deren Motivationen wirtschaftlicher oder politischer Art sind heutiger KI ebenso wenig unmittelbar zugänglich wie die zur Modellbildung fähige Fantasie, mit der Cyber-Kriminelle zu Werke gehen.

Es gibt also keinen zwingenden Grund, die Leistung der KI in Richtung auf menschliche Stärken hin auszudehnen. Dass dies trotzdem geschehen wird, ist wahrscheinlich, weil allein die Herausforderung die Entwickler reizt. Wie im Beitrag gezeigt, führt dahin allerdings ein weit hindernisreicherer Weg als häufig angenommen. Außerdem kann es sein, dass der Nutzen dann weit geringer ausfallen wird als erwartet. Denn eine KI, die sich mit von Menschen beeinflussten Umgebungen befasst, muss zu deren Erfassung ähnlichen Aufwand treiben wie ein Mensch – entweder durch Verbrauch von (Lern-) Zeit oder durch Verbrauch technischer Ressourcen.

Wer heute KI einkauft, sollte bei Auswahl und Implementierung ähnlich vorgehen wie bei der Integration eines menschlichen Mitarbeiters, der über bemerkenswerte Stärken, aber auch bestimmte Einschränkungen verfügt. Ein kluges „Teaming“ mit geschickter Arbeitsteilung zwischen Mensch und Maschine schafft hier die besten Resultate.

Bettina Weßelmann (bettina@wesselmann.com) ist Beraterin für Unternehmenskommunikation und Fachautorin mit dem Spezialgebiet Informationssicherheit. Dr. Johannes Wiele (johannes@wiele.com) ist freier Autor sowie GDD-geprüfter Datenschutzbeauftragter und arbeitet als Senior-Manager in der Cybersecurity-Beratung.

Literatur

[1] Bettina Weßelmann, Johannes Wiele, KI braucht Zuwendung, Über die Arbeit mit regelbasierter und anomaliegestützter Bedrohungserkennung, <kes> 2019#3, S. 70
[2] Bettina Weßelmann, Johannes Wiele, „Human Factor“-Sensoren für SIEM, <kes> 2014#4, S. 6
[3] Chin-Chang Ho, Karl F. MacDorman, Measuring the Uncanny Valley Effect: Refinements to Indices for Perceived Humanness, Attractiveness, and Eeriness, International Journal of Social Robotics 9(1), Januar 2017, S. 129, online verfügbar auf www.macdorman.com/kfm/writings/pubs/Ho-MacDorman-2017-Measuring-Uncanny-Valley-Effect-Refinements-to-Indices-for-PerceivedHumanness-Attractiveness-Eeriness-IJSR.pdf
[4] Judea Pearl, Grenzen undurchsichtigen Lernens, Süddeutsche Zeitung, Mai 2019, www.sueddeutsche.de/kultur/kuenstliche-intelligenz-lernen-1.4447484 (Test-/ Abozugang erforderlich)

Diesen Beitrag teilen: