Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Mit <kes>+ lesen

To trust or not to trust (2) : Vertrauen schaffen durch eine Recherche- und Informationsplattform zu KI-Anbietern und -Lösungen

Nachdem im ersten Teil dieses Beitrags [1] die Theorie zu Vertrauen und Vertrauenswürdigkeit erörtert sowie Ergebnisse der Anwenderstudie „TrustKI“ vorgestellt wurden, liefert unsere Autorin jetzt erste Einblicke in die Etablierung der Plattform „Trust4Good“, die aus dem vorgestellten Forschungsprojekt am if(is) Institut für Internet-Sicherheit der Westfälischen Hochschule Gelsenkirchen hervorgegangen ist.

Im Kontext der digitalen Transformation – und speziell mit Blick auf künstliche Intelligenz (KI) – stellt sich vermehrt die Frage, welche Faktoren gegeben sein müssen, um Anwenderunternehmen in ihrem Entscheidungsprozess bezüglich des Einsatzes innovativer Technologie zu unterstützen. Dass mit der zunehmenden Digitalisierung eine hohe Komplexität einhergeht, wodurch es für Entscheider in Anwenderunternehmen schwieriger wird, die Wirkweise von KI-Lösungen umfassend verstehen sowie einordnen zu können, erschwert fundierte Entscheidungen weiter. Hinzu kommt, dass KI-Systeme oft nachhaltig in die Geschäftsprozesse von Anwenderunternehmen eingreifen und daher tiefer in die bestehende Infrastruktur integriert werden müssen als andere Lösungen – wodurch nicht zuletzt auch eine gewisse Abhängigkeit vom jeweiligen KI-Anbieter entsteht.

All diese Faktoren behindern potenziell den Entscheidungsprozess und dies könnte ein Grund sein, warum Anwenderunternehmen – und hier vor allem mittelständische – bezüglich der Einführung von KI noch immer eher zögerlich agieren.

Um dieser Problematik konstruktiv zu begegnen, sind KI-Anbieter aufgefordert, tätig zu werden. Der Fokus entsprechender Maßnahmen muss darauf liegen, Vertrauenswürdigkeit zu vermitteln, da „Vertrauen im Zusammenhang mit risikoreicher IT-Nutzung besonders an Bedeutung gewinnt“ [2]. Denn eine durch Vertrauen evozierte Gewissheit – also die Annahme, dass es möglich ist, sich auf etwas Bestimmtes verlassen zu können – begünstigt generell eine Reduktion von Komplexität, auch weil dadurch eine subjektive Überzeugung der Richtigkeit von Handlungen entsteht.

Genau auf dieser Annahme basiert das Forschungsprojekt TrustKI: Diese Prämisse erfordert elementar eine Untersuchung der Rahmenbedingungen, die notwendig sind, damit Anwenderunternehmen Vertrauen aufbauen können. Um die hierfür essenziellen Vorgaben zu erheben, wurde im ersten Schritt die Anwender-Studie TrustKI auf Grundlage des im Rahmen des Forschungsprojektes weiterentwickelten Vertrauenswürdigkeits-Modells konzipiert (vgl. [1]). Zur Durchsetzung der Vergleichspräzision fußte der dazu notwendige Prozess auf den einzelnen Vertrauenswürdigkeits-Aspekten (siehe Abb. 1), zu denen jeweils ein Set an Fragen konzipiert wurde, die aus Forschungssicht seitens der KI-Anbieter zwingend zu beantworten sind.

Im Rahmen dieser Studie hat sich gezeigt, dass die Verantwortlichen in Anwenderunternehmen klare Vorstellungen davon haben, welche Fakten KI-Anbieter ihnen zum Nachweis ihrer Vertrauenswürdigkeit zur Verfügung stellen müssen [3]. Mittels der Ergebnisse wurde zugleich auch das (vormals hypothetisch formulierte) Ziel des Forschungsprojekts TrustKI verifiziert, eine Vertrauenswürdigkeits-Plattform zu etablieren, die KI-Anbietern unter anderem die Möglichkeit bietet, umfassend alle obligatorischen Informationen über ihr Unternehmen sowie ihre KI-Lösung(en) in Form eines Commitments darzustellen.

Vertrauenswürdigkeits-Plattform Trust4Good

Die grundlegende Intention, die sich hinter der – in der Aufbauphase befindlichen – Vertrauenswürdigkeitsplattform Trust4Good (www.trust4good.de) verbirgt, ist, dass KI-Anbieter ein „wahrhaftiges“ Versprechen bezüglich ihres Unternehmens sowie ihrer KI-Lösung abgeben. Eine der wichtigsten Voraussetzungen besteht somit darin, dass die eingebrachten Informationen der jeweiligen KI-Anbieter keine Falschaussagen enthalten, da dies nachgewiesenermaßen dazu führt, dass die Vertrauenswürdigkeit einer Quelle sinkt – dies stünde konträr zum Ziel, einen Vertrauens-Mehrwert für Anwenderunternehmen zu bieten. Diese Prämisse gilt für jeden der nachfolgend genannten Vertrauenswürdigkeits-Aspekte – denn jedem wird die gleiche relevante Bedeutung beigemessen.

Maßgebliche Vertrauensanker

Folgende Aspekte sind für Anwenderunternehmen zum Aufbau von Vertrauen maßgeblich: Zutrauen, Zuverlässigkeit, Integrität und Sicherheit. Eine ausführliche Darstellung dieser Aspekte, welche erst die wahrgenommene Vertrauenswürdigkeit bewirken, ist daher wichtig, um aufgrund kognitiver Faktoren ein institutionelles Vertrauen der Anwender zum KI-Anbieter grundsätzlich zu ermöglichen.

  • Zutrauen ist ein unverzichtbares Kriterium für die Vertrauenswürdigkeit. Generell lässt es sich im Hinblick auf die Funktionalität dadurch erfüllen, dass KI-Anbieter sowohl über die Fähigkeit als auch über die entsprechenden Mittel verfügen, um verlässliche KI-Lösungen bereitzustellen. Die Einflussvariablen des Zutrauens sind dazu nicht nur transparent nachzuweisen, sondern auch zwingend inhaltlich zu erfüllen.
  • Zuverlässigkeit bedeutet hier, dass KI-Anbieter stets wohlwollend im besten Sinne der Anwender agieren – allem voran kooperativ und verantwortlich. Kooperatives Handeln wird zum Beispiel durch die Übernahme einer Gesamtverantwortung im Schadensfall dokumentiert – oder durch sofortige Mitteilung bei entdeckten Schwachstellen sowie deren schnelle Behebung.
  • Integrität setzt voraus, dass Anbieter alle Kriterien der Vertrauenswürdigkeit und hier besonders auch die ethischen Dimensionen in den Vordergrund stellen. Wichtig im Sinne seiner gebotenen Sorgfaltspflicht ist, dass ein KI-Anbieter als Vertrauensnehmer prinzipiell in der Lage ist, alle Versprechen, die er abgegeben hat, überhaupt einhalten kann – und sie dann auch tatsächlich einhält. Integrität bedeutet zudem das Respektieren gesellschaftlicher Werte und Normen.
  • Sicherheit und im Besonderen das Anerkennen der maßgeblichen Bedeutung der IT-Sicherheit ist geboten, um KI-Lösungen risikoarm nutzen zu können. Dieser Anspruch ist jedoch (noch) eine Fiktion, da viele KI-Anbieter heute bei Weitem nicht den Level an IT-Sicherheit und Vertrauenswürdigkeit erreichen, der notwendig wäre, um KI-Lösungen in kritischen Geschäftsprozessen unbedenklich einsetzen zu können. Die Umsetzung von (weitergehenden) IT-Sicherheitsanforderungen ist somit notwendig, da Anwenderunternehmen im Allgemeinen nicht dazu in der Lage sind, sich adäquat zu schützen.
Abbildung 1: Weiterentwickeltes Vertrauenswürdigkeits- Modell der Anwenderstudie TrustKI
Abbildung 1: Weiterentwickeltes Vertrauenswürdigkeits- Modell der Anwenderstudie TrustKI

Weitere hilfreiche Aspekte

Darüber hinaus gibt es Aspekte, die im Sinne einer KI-Lösung für den Aufbau von Vertrauen ebenfalls eine Rolle spielen: Transparenz, Leistungsfähigkeit und Zweckprägnanz. Durch deren Darstellung wird ein Nutzer* prinzipiell in die Lage versetzt, Einblicke in die für ihn notwendigen Details der angebotenen KI-Lösung nehmen zu können und so Vertrauen in diese aufzubauen beziehungsweise zu verstetigen. Dabei ist allerdings zu beachten, dass ein Zuviel an Informationen Anwender überfordern könnte, was sich potenziell kontraproduktiv auf die Vertrauenswürdigkeit auswirkt.

  • Der Vertrauenswürdigkeits-Aspekt Transparenz erfordert es, alle wesentlichen Informationen zur Verfügung zu stellen, die für einen Anwender notwendig sind, um im gegebenen Kontext eine informierte und somit valide Entscheidung über die Vertrauenswürdigkeit von KI-Lösungen treffen zu können. Dies ist umso bedeutsamer, da es aufgrund der zunehmenden Komplexität der Technologie für Anwender wichtiger denn je ist, dass die letztlich gewählte KI-Lösung ihre jeweiligen Bedürfnisse angemessen abbildet. Des Weiteren besteht im Sinne einer adäquaten Nutzung die Notwendigkeit, den Anwender über mögliche Risiken sowie den richtigen Umgang mit diesen aufzuklären.
  • Leistungsfähigkeit kann bei der Nutzung unmittelbar erfasst und auch kontrolliert werden. Daher ergeben sich daraus messbare Kriterien für eine Beurteilung, inwieweit sich Anwender beim Erreichen des beabsichtigten Einsatzzwecks unterstützt fühlen und wie gut die KI-Lösung tatsächlich dafür geeignet ist.
  • Die Zweckprägnanz manifestiert sich im Verwendungszweck der KI-Lösung: Dies bedeutet, dass bei der Entwicklung von Funktionen die Intention der KI-Lösung zielgenau definiert ist. Bietet eine KI-Lösung neben der eigentlichen Anwendung weitere Funktionen, die nur zum Vorteil des KI-Anbieters oder dritter Parteien sind, ist es im Sinne der Vertrauenswürdigkeit notwendig, dies klar darzulegen und eindeutig zu beschreiben.

Die Vertrauenswürdigkeits-Plattform Trust4Good eignet sich neben ihrer Rolle als Entscheidungshilfe für Anwender ebenso dazu, Mehrwerte für KI-Anbieter zu generieren – etwa, indem sie durch den Vergleich mit Wettbewerbern das eigene Handeln in bestimmten Bereichen hinterfragen und entsprechend anpassen können. Die positive Annahme ist, dass die sieben genannten Vertrauenswürdigkeits-Aspekte insgesamt zu einer holistischen Betrachtung im Kontext der KI animieren – etwa bezüglich der Berücksichtigung gesellschaftlicher Werte.

Bedeutung von Plattformen

Plattformen gelten im Sinne einer neutralen Instanz allgemein als ein geeignetes Medium, um zwischen den Interessen zweier Parteien zu vermitteln – dies zeigen verschiedene Untersuchungen (siehe etwa [4]). Gerade unter dem Aspekt der Vertrauenswürdigkeit fällt ihnen eine besondere Rolle zu – in Bezug auf digitale Plattformen manifestiert sich Vertrauen in drei divergierenden Dimensionen:

  • erstens das Vertrauen der Anwender in den Plattformbetreiber,
  • zweitens das Vertrauen in die Technologie hinter der Plattform und
  • drittens Vertrauen in die Interaktion zwischen den Anwendern (vgl. [5,6].

Es ist erforderlich, alle vertrauensbildenden Maßnahmen darauf auszurichten, diese Dimensionen bestmöglich auszufüllen.

Zudem spielt die Kommunikation hier eine gleichermaßen wesentliche Rolle: Auch wenn man diese bei der Nutzung einer Plattform nicht als „direkt“ bezeichnen kann, gilt es doch, Aspekte aus der Kommunikationsforschung zu beachten. Ein bekanntes Modell ist hier das 4-Seiten-Modell gemäß Schulz von Thun [7], demzufolge sich jede Nachricht mehrseitig deuten lässt:

  • Sachebene: Worüber wird informiert? (z.B. Fakten, Informationen, Inhalte)
  • Selbstkundgabe: Was gibt der Sender von sich preis?
  • Beziehungsseite: Was offenbart die Nachricht über die Beziehung zwischen Sender und Empfänger? (z.B. Wertschätzung, Kritik usw.)
  • Appellseite: Was soll die Nachricht beim Empfänger bewirken?

Im Rahmen der Vertrauenswürdigkeit ist zu beachten, dass die Gewichtung der jeweiligen Ebenen beim Empfänger liegen. Dieser Umstand muss insbesondere bei der Überlegung des „Senders“ – sprich des KI-Anbieters – bezüglich seiner Intention Berücksichtigung finden, denn diese liefert einen wichtigen Hinweis zur Bewertung seiner Glaubwürdigkeit: Die Intention wird auf der Sachebene dargelegt, also mit der Übermittlung der Inhalte, welche die notwendigen Informationen liefern. Diese Informationen dürfen jedoch, wie bereits erwähnt, nicht absichtlich falsch sein, da nur glaubwürdige Inhalte die Glaubwürdigkeit des Senders stärken – auch wenn die Quelle (der Sender) unbekannt ist (vgl. [8]).

Erstes Feedback zu Trust4Good

Prinzipiell ist der Zweck der Vertrauenswürdigkeits-Plattform Trust4Good nur erfüllt, wenn alle Parteien gleichermaßen davon profitieren. Von daher wurde in mehreren Workshops evaluiert, ob und wie der Bedarf der Anwenderunternehmen mit demjenigen der KI-Anbieter vereinbar ist.

Grundsätzlich hat sich herausgestellt, dass KI-Anbieter, die vertrauenswürdig agieren, den Nutzen von Trust4Good darin sehen, dass sie sich von denjenigen, die dies nicht tun abgrenzen können. Diese Einstellung resultiert auch daraus, dass die zumeist noch zögerliche Haltung von Anwenderunternehmen für die meisten KI-Anbieter deutlich wahrnehmbar ist.

Abbildung 2: Trust4Good (www. trust4good.de) ist als Plattform zur Einschätzung der Vertrauenswürdigkeit von KI-Lösungen und -Anbietern bereits online, auch wenn noch nicht alle Funktionen implementiert wurden.
Abbildung 2: Trust4Good (www. trust4good.de) ist als Plattform zur Einschätzung der Vertrauenswürdigkeit von KI-Lösungen und -Anbietern bereits online, auch wenn noch nicht alle Funktionen implementiert wurden.

Zusammenfassend lässt sich feststellen, dass KI-Anbieter größtenteils mit den Fragen übereinstimmen, deren Beantwortung die Anwenderunternehmen als wichtig erachten und generell auch dazu bereit sind, diese zu beantworten. Allerdings wurden einige Aspekte ob ihrer Aussagekraft in Frage gestellt – sie erschienen den befragten KI-Anbietern aufgrund ihrer Erfahrung aus der Praxis entweder als realitätsfern oder nicht aussagekräftig genug.

Demnach ließe sich die Beantwortung einiger Fragen sowohl positiv als auch negativ auslegen: Ist beispielsweise eine steigende Anzahl von Mitarbeitern über die letzten drei Jahre ein Indikator für ein gut laufendes Unternehmen oder für einen „Sale-up“ oder aber dafür, dass beides in Abhängigkeit voneinander steht? Die Schlussfolgerung im Forschungsteam war, dass solche Fragen im Verlauf des Projekts hinsichtlich ihrer Aussagekraft eine weitere Untersuchung erfordern.

Trotzdem wird die seitens der Anwenderunternehmen aufgestellte Forderung nach einer holistischen Transparenz von den KI-Anbietern verstanden und akzeptiert – auch in dem Punkt, dass es für Anwenderunternehmen relevant ist, nicht nur Fakten zur KI-Lösung zu erfahren, sondern ebenfalls über das Unternehmen, das dahintersteht.

Den Vertrauenswürdigkeitsaspekt „Integrität“ schätzten die KI-Anbieter durchgängig als maßgeblich ein – in diesem Punkt stimmen sie mit der Einstellung der Anwenderunternehmen überein. Mehrere KI-Anbieter hatten sich mit einigen der Fragestellungen von Trust4Good bereits zuvor intensiver auseinandergesetzt, wenngleich auch in den meisten Fällen eher informell.

Ebenso wird die Bedeutung der IT-Sicherheit fast durchweg anerkannt – hier herrscht nur in einem Punkt keine Einigkeit: Während Anwenderunternehmen großen Wert darauf legen zu erfahren, wie viel Prozent vom gesamten IT-Budget für die IT-Sicherheit bereitgestellt wird, macht diese Zahl nach Ansicht der KI-Anbieter eher weniger Sinn, weil sie davon überzeugt sind, dass die umgesetzte IT-Sicherheitsstrategie dabei eine relevantere Rolle spielt.

Insgesamt lässt sich resümieren, dass bisher die Interessen beider Parteien gut austariert wurden.

Fazit

In der Theorie wird eine Plattform als Intermediär zwischen zwei Parteien als idealer Ansatz dargestellt. Um den damit verknüpften Anspruch zu erfüllen, müssen Anwender dem Plattformbetreiber jedoch vertrauen.

Die Vertrauenswürdigkeit von Trust4Good basiert einerseits auf der langjährigen Erfahrung des Instituts für Internet-Sicherheit if(is) im Bereich Technologie – hier sowohl zur Beurteilung derselbigen als auch in Bezug auf die Kompetenz zum Aufbau der Plattform. Andererseits hilft hier auch die umfassende interdisziplinäre wissenschaftliche Arbeit im Bereich Vertrauenswürdigkeit und Ethik, auf der sowohl die Weiterentwicklung des Vertrauenswürdigkeitsmodells als auch die Entwicklung des Commitments fußt.

Eine wichtige Intention von Trust4Good ist es, Störungen in der Kommunikation zu vermeiden, die in erster Linie auftreten, wenn Sender – in diesem Fall die KI-Anbieter – und Anwenderunternehmen als Empfänger den Informationsgehalt auf verschiedenen Ebenen unterschiedlich interpretieren. Um eine daraus resultierende Beeinträchtigung der Beziehung zwischen den beiden Parteien auf Trust4Good so weit wie möglich auszuschließen, wurde der Bedarf der Anwenderunternehmen vorab eruiert und entsprechend mit den KI-Anbietern in Workshops austariert.

Von ebenso entscheidender Bedeutung ist, dass die Kommunikation der KI-Anbieter gemäß dem 4-Seiten-Modell (vgl. Kasten) ausgerichtet wird – wobei hier elementar sein muss, die Bedeutung des Wahrheitsgehalts besonders in den Vordergrund zu rücken. In diesem Kontext ist die Rolle von Trust4Good relevant, da die Selbstkundgabe auf der Sachebene für Anwenderunternehmen nicht hundertprozentig überprüfbar ist und somit durch die Glaubwürdigkeit des Intermediär (also hier Trust4Good) unterstützt werden muss. Um diese Position darüber hinaus zu verstetigen, wird als zusätzliche Maßnahme ein Verifikationssystem etabliert, um eventuelle Falschinformationen von KI-Anbietern transparent machen oder Fehlinterpretationen von Aussagen aufklären zu können.

Eine weitere essenzielle Maßnahme, die allgemein zur Vertrauensbildung bei jeglichen Plattformen beiträgt, ist die Personalisierung: Aufgrund der Relevanz dieses Aspekts wurde bei der Konzeption der Plattform Trust4Good eine expliziten Personalisierung berücksichtigt: Das bedeutet, dass Anwender aktiv in einem Dashboard genau diejenigen Informationen aus dem Commitment eines KI-Anbieters herausfiltern können, die aus ihrer Sicht notwendig sind, um dessen Vertrauenswürdigkeit nachzuweisen.

Nachdem die Evaluierungsphase mittlerweile abgeschlossen ist, werden in den nächsten Wochen die ersten Commitments mit KI-Anbietern erarbeitet und auf der Vertrauenswürdigkeits-Plattform Trust4Good zur Verfügung gestellt (www.trust4good.de, Abb. 2). Ein Diskussionsforum, ein Vergleichssystem sowie ein Legal Navigator, der Hilfestellung für ein besseres Verständnis von Gesetzestexten im Kontext von KI bieten soll, sind in Entwicklung.

Ulla Coester ist Doktorandin, wissenschaftliche Mitarbeiterin und Projektleiterin „TrustKI“ am if(is) Institut für Internet-Sicherheit der Westfälischen Hochschule Gelsenkirchen sowie Lehrbeauftragte für digitale Ethik an der Hochschule Fresenius in Köln.

Literatur

[1] Norbert Pohlmann, Ulla Coester, To trust or not to trust, Was Vertrauen schafft: Anforderungen an KIAnbieter und -Lösungen, 2024# 1, S. 51, www.kes-informationssicherheit.de/print/titelthema-kuenstliche-intelligenz-zwischen-regulierung-und-vertrauen/to-trust-or-not-to-trust/ (+)

[2] Simone Borsci, Peter Buckle, Simon Walne, Davide Salanitri, Trust and Human Factors in the Design of Healthcare Technology, Conference Paper, August 2018, in: Sebastiano Bagnara, Riccardo Tartaglia, Sara Albolino, Thomas Alexander, Yushi Fujita (Hrsg.), Proceedings of the 20th Congress of the International Ergonomics Association (IEA 2018), Volume VII, S. 207, Springer Nature, ISBN 978-3-319-96070-8, https://doi.org/10.1007/978-3-319-96071-5_21 (kostenpflichtig)

[3] Ulla Coester, Dominik Adler, Marcel Brauer, Dr. Norbert Pohlmann, Yasin Zerria, Anwender-Studie TrustKI, repräsentative Online-Befragung, März 2024, https://vertrauenswuerdigkeit.com/wp-content/uploads/2024/03/Studienergebnisse_TrustKI.pdf

[4] Carsten Schultz, Stefan Hoffmann, Manuela Ferdinand, Vertrauensbasierte Organisationen als Grundlage von erfolgreichen digitalen Plattformen für personennahe Dienstleistungen, HMD Praxis der Wirtschaftsinformatik Vol. 57/4, S. 783, Juli 2020, https://doi.org/10.1365/s40702-020-00635-6  

[5] Jaana Räisänen, Arto Ojala, Tero Tuovinen, Building trust in the sharing economy: Current approaches and future considerations, Journal of Cleaner Production Volume 279, S. 123724, Januar 2021, https://doi.org/10.1016/j.jclepro.2020.123724 (kostenpflichtig)

[6] Will Sutherland, Mohammad Hossein Jarrahi, The sharing economy and digital platforms: A review and research agenda, International Journal of Information Management Volume 43, S. 328, Dezember 2018, https://doi.org/10.1016/j.ijinfomgt.2018.07.004 (kostenpflichtig)

[7] Friedemann Schulz von Thun, Miteinander reden 1: Störungen und Klärungen: Allgemeine Psychologie der Kommunikation, Rowohlt, Oktober 1981, ISBN 978-3-499-17489-6, siehe auch www.schulz-vonthun.de/die-modelle/das-kommunikationsquadrat

[8] Petra Hoepner, Digitale Glaubwürdigkeit, Kompetenzzentrum Öffentliche IT / Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS, Oktober 2017, ISBN 978-3-9818892-1-5, https://doi.org/10.24406/publica-fhg-298692

Diesen Beitrag teilen: