Banner E-Learning IT-Sicherheit
Mit <kes>+ lesen

Das Märchen der Objektivität : Wie Bias die künstliche Intelligenz färbt

KI-Systeme, die in bester Absicht sowie an und für sich fehlerfrei konzipiert und entwickelt werden, müssten auch einen korrekten, objektiven und fairen Output produzieren, oder? Man ahnt es bereits: So einfach ist es leider nicht. Selbst KI-Systeme, die technisch sauber und in bester Absicht konzipiert werden, können von sogenannten Bias heimgesucht werden, die den Output des Systems verfälschen. Aber was bedeutet Bias im Kontext künstlicher Intelligenz überhaupt?

Lesezeit 4 Min.

Als Bias werden problematische Verhaltensmuster von Modellen der künstlichen Intelligenz (KI) bezeichnet, die durch Verzerrungen ausgelöst werden. Man kann sich solche Verzerrungen als kleine fehlerhafte Stellschrauben vorstellen, die zu problematischen statistischen Zusammenhängen führen. Die BiasArten sind vielfältig – die Ursachen und Risiken von Bias in KI-Systemen sind vielschichtig und tief in den technischen Aspekten der KIEntwicklung verankert: Sie können in völlig verschiedenen Phasen eines KI-Lebenszyklus auftreten und haben in der Regel eine gewisse Voreingenommenheit bis hin zur Diskriminierung bestimmter Nutzergruppen zur Folge.

Zwar kann KI eine wichtige Rolle bei der Digitalisierung in Deutschland spielen, aber gerade in Prozessen der öffentlichen Verwaltung muss eine Gleichbehandlung gewährleistet werden. Somit muss das Bias-Problem beachtet werden, um KI für eine konsequente Digitalisierung nutzen zu können.

Wie Bias entsteht

Bias können aufgrund von konzeptionellen Entscheidungen bei der Entwicklung von KI-Modellen entstehen. Das Problem beginnt bereits bei der Datenerhebung: Es kommt vor, dass Ungleichheiten, die bereits in der realen Welt bestehen, in die Daten übernommen werden.

Wenn eine KI auf Daten trainiert wird, integriert sie Ungleichheiten auch in ihr Verhaltensmuster.

Die Erstellung von Daten ohne Bias ist äußert kompliziert, da Ungleichheiten nicht nur in offensichtlichen Merkmalen – wie beispielsweise Ethnizität, Geschlecht oder Alter – stecken können. Sie existieren auch in Merkmalen, die auf den ersten Blick objektiv sein sollten (sog. Proxy-Merkmale). Ein Beispiel dafür ist die Berufserfahrung, die auf das Alter schließen lässt, und damit in automatisierten Entscheidungsprozessen zu Altersdiskriminierung führen kann.

Auch die Auswahl und Gestaltung von Modellen und Algorithmen kann Bias in der KI herbeiführen. So kann es je nach Modell passieren, dass gewisse Muster in den Daten überbetont oder unterbewertet werden, was zu verzerrten Vorhersagen führt. Als Muster werden in der Fachsprache statistische Zusammenhänge von einem oder mehreren Merkmalen innerhalb eines Datensatzes mit bestimmten Zuständen bezeichnet. Darüber hinaus können generell subjektive Entscheidungen beim Design die Ergebnisse negativ beeinflussen: Wie wird beispielsweise Erfolg in einem bestimmten Kontext definiert? Sprich: Mit welchen Performanz-Indikatoren wird eine KI bewertet?

Sogar im Einsatz können sich Bias in KI-Systeme einschleichen: Häufig werden diese Systeme dynamisch gehalten, das heißt sie werden konstant weitertrainiert. Da als Informationsquelle dabei gerne die Interaktion der Nutzer mit dem KI-System verwendet wird, kann sich eine Voreingenommenheit der Nutzer auf das KI-System übertragen.

Wie kann sich Bias auswirken?

Betrachten wir beispielsweise ein KI-System zur automatisierten Bewertung von Bewerbungsunterlagen: Dort würde die KI-Anwendung im Vorfeld mit einer Menge früherer Bewerber- und Auswahldaten sowie Aufstiegsstatistiken innerhalb des Unternehmens trainiert. Wurden in den Vorjahren viel mehr Männer als Frauen eingestellt und war die Aufstiegschance von Männern deutlich höher aufgrund von diskriminierenden Unternehmensstrukturen, so wird in dem KI-Modell gespeichert, dass die Einstellung von männlichen Bewerbern generell einen größeren Vorteil für das Unternehmen bietet – und entsprechend werden Bewerbungen von Frauen häufiger aussortiert.

Es sind inzwischen viele Fälle bekannt, in denen KI-Systeme biasbedingt voreingenommene und damit diskriminierende Entscheidungen getroffen haben. Das Bekanntwerden solcher Fälle hat entscheidend dazu beigetragen, dass zunehmend über Fairness und Unfairness von KI-Systemen diskutiert wird. Da je nach Einsatzgebiet der KI-Systeme soziale, rechtliche, finanzielle oder gesundheitliche Schäden für Betroffene entstehen können, muss Bias eine hervorgehobene Rolle bei Bewertungsverfahren von KI-Systemen spielen.

Auch die IT-Sicherheit ist betroffen und kann durch Bias untergraben und gefährdet werden. Besonders offensichtlich ist die Gefährdung der IT-Sicherheit bei der Anwendung von KI-Systemen in IT-Security-Anwendungen, wenn Bias dort zu Fehlverhalten führt und damit unmittelbar die Funktion der IT-Security-Anwendung beeinträchtigt wird. Als Beispiel kann eine biometrische Zugangskontrolle genannt werden, bei der das verwendete KI-Modell aufgrund enthaltener Bias Menschen einer bestimmten Ethnizität häufig verwechselt und dadurch Unbefugte Zugang zu sicherheitskritischen Bereichen oder Daten erhalten können. Generell lässt sich sagen, dass biasbedingtes Fehlverhalten von KI-Modellen den Grundsatzprinzipien der IT-Sicherheit – nämlich Vertraulichkeit, Integrität und Verfügbarkeit (sog. CIA-Triade: Confidentiality, Integrity, Availability) – zuwiderläuft.

Abbildung 1: Bias kann sich in allen Phasen des Lebenszyklus eines KI-Systems einschleichen. Deswegen sollte die Bias-Problematik jederzeit mitbedacht werden.

Bei Bias heißt es am Ball bleiben!

Halten wir fest: Bias ist mitunter ein schädlicher bis gefährlicher Fehlerteufel, der sich unbemerkt in KISysteme einschleichen kann, und das zu jeder Phase – sei es bei der Datenerhebung, der Konzeption von KI-Modellen, dem Training eines KI-Systems oder während dem nachfolgenden Einsatz einschließlich Interaktion und Feedback durch Nutzer.

Es ist also wichtig, Bias ausfindig zu machen, die potenziellen Auswirkungen einzuschätzen und durch Gegenmaßnahmen Bias selbst sowie das damit verbundene Risiko für und durch die betreffenden KI-Anwendungen zu minimieren. Und zwar kontinuierlich – bei dynamischen KI-Systemen heißt das in Bezug auf Bias: am Ball bleiben!

Diesen Beitrag teilen: