Mit <kes>+ lesen

Vertrauen : To trust or not to trust : Was Vertrauen schafft: Anforderungen an KI-Anbieter und -Lösungen

Komplexität und fehlende Sachkompetenz verhindern potenziell den Einsatz neuer Technologie, unter anderem von künstlicher Intelligenz (KI). Umso wichtiger sind vertrauensbildende Maßnahmen sowohl in Bezug auf Anbieter als auch deren KI-Lösungen. Das Forschungsprojekt „TrustKI – Vertrauenswürdigkeits-Plattform für KI-Lösungen und Datenräume“ untersucht daher im Auftrag des Bundesministeriums für Digitalisierung und Verkehr, ob eine Vertrauenswürdigkeits-Plattform generell geeignet wäre, Anwender bei ihrem Entscheidungsprozess bezüglich KI-Lösungen zu unterstützen.

Durch den ständig steigenden Grad der Informations-Technisierung und die daraus resultierende Komplexität fühlen sich Anwender* häufig in ihrer Handlungsfähigkeit eingeschränkt, denn aufgrund der gegebenen Vielschichtigkeit ist es ihnen nicht mehr möglich, eine IT- oder KI-Lösung absolut zu kontrollieren. Infolgedessen können grundsätzlich folgende Handlungsextreme resultieren: entweder komplette Verweigerung der Technologie oder eben blindes Vertrauen in sie.

Keine der beiden Alternativen ist geeignet, die Digitalisierung systematisch voranzubringen. Im Gegenteil: Sie sind im Sinne einer wertschöpfenden Digitalisierung kontraproduktiv. Blindes Vertrauen verhindert zwar nicht die Nutzung im Allgemeinen, wohl aber eine effiziente Inanspruchnahme neuer Anwendungen oder innovativer Dienste, da der Einsatz nicht aufgrund von entsprechender Fachkompetenz getroffen wurde. Dies macht deutlich, dass für eine gewinn- und nutzbringende Digitalisierung ein Verhältnis auf Augenhöhe zwischen KI-Anbietern und Anwendern etabliert werden muss, das auf Vertrauen basiert. Dieser Anspruch impliziert jedoch im Rahmen der digitalen Transformation: Damit Anwender vertrauen können, müssen KI-Anbieter vertrauenswürdig agieren.

Wie Vertrauen entsteht

Allgemein gibt es in der Vertrauensforschung unterschiedliche Ansätze, anhand derer sich der Prozess zum Entstehen und Manifestieren von Vertrauen erklären lässt. Grundsätzlich muss dafür die Voraussetzung gegeben sein, dass der Vertrauensgeber (hier: Anwender) eine gewisse Bereitschaft hat, sich dem Vertrauensnehmer (hier: KI-An bieter) anzuvertrauen. Hinzu kommt notwendigerweise die Zuversicht, dass der KI-Anbieter richtig handeln kann und dies auch zu tun bereit ist.

Zur Operationalisierung des Vertrauensbegriffs im Kontext der Digitalisierung erscheint das Konzept „Vertrauen aus Vernunft“ sinnvoll. Dabei spielen verschiedene Faktoren eine essenzielle Rolle: einerseits Nutzen, Interessen und Präferenzen einer Person – andererseits deren individuelle Fähigkeit, Informationen verarbeiten und vertrauenswürdige Interaktionspartner anhand bestimmter Kriterien identifizieren zu können. Zu diesen Kriterien zählen nach gängiger Ansicht unter anderem Kompetenz, Nicht-Opportunismus und Rechtschaffenheit des Vertrauensnehmers [1]. Zusammengefasst ist „Vertrauen aus Vernunft“ demnach eine Zuschreibung von Gründen – basierend auf Argumenten oder Bedingungen –, die jemand etwa für die Klassifizierung eines KI-Anbieters vornimmt.

Was zum Vertrauensaufbau geleistet werden muss

Vertrauen ist – wie bereits erwähnt – auch im Sinne einer wertschöpfenden Digitalisierung nur dann positiv, wenn es sich nicht um ein blindes oder naives Vertrauen handelt. Da Anwender jedoch aufgrund der Komplexität zunehmend weniger Wissen über die Hintergründe von IT- oder KI-Lösungen haben, müssen sie sich vorrangig darauf verlassen, dass anbieterseitig entsprechender Sachverstand vorhanden ist – denn per se liegen ihnen als Vertrauensgeber weder vollständige Informationen über das Können noch das Wollen oder die Intention eines KI-Anbieters vor.

Von daher gilt es erstens, den Verdacht zu entkräften, dass KI-Anbieter opportunistisch nur auf den eigenen Vorteil achten oder zumindest die Interessen der Anwender als zweitrangig ansehen. Zweitens sollten KI-Anbieter darstellen, dass sie über die notwendigen Kompetenzen für die Lösungsentwicklung verfügen. Das Präzisieren ihrer Grundeinstellung sowie die Darstellung einer kongruenten Handlungsweise sollte dabei als Bringschuld gesehen werden – denn nicht zuletzt lässt sich so sicherstellen, dass ein valides Vertrauensverhältnis zwischen ihnen und den Anwendern entstehen kann. Eine entsprechende Ableitung im Kontext der Digitalisierung könnte somit lauten: Ein KI-Anbieter muss den Nachweis erbringen, warum der Anwender ihm vertrauen kann.

Die Interdependenz von Vertrauen und Vertrauenswürdigkeit

Vertrauenswürdigkeit ist eine relationale Eigenschaft: Der Beobachter, besonders ein möglicher Vertrauensgeber, entscheidet darüber, ob er jemandem Vertrauenswürdigkeit zuschreibt oder nicht. Die grundlegenden Aspekte, die zur Bewertung der Vertrauenswürdigkeit herangezogen werden, entsprechen im Wesentlichen denen, die auch zur Beurteilung von Vertrauen relevant sind:

  • Kompetenz: ist gerade im Rahmen von Wertschöpfungsprozessen ein notwendiger Bestandteil für eine erfolgreiche Kooperationsbeziehung, aber kein hinreichender Aspekt für das Vertrauensphänomen.
  • Nicht-Opportunismus: wird als wichtigster Aspekt der Vertrauenswürdigkeit eingeschätzt, weil sich darin die Bereitschaft und Fähigkeit des Vertrauensnehmers ausdrücken, situativen Versuchungen des Missbrauchs von Vertrauen zu widerstehen und sich keine Vorteile zulasten des Vertrauensnehmers zu verschaffen.
  • Folgenabschätzung: Das Einbeziehen der Auswirkungen des Handelns auf Dritte, zum Beispiel weitere Vertrauensnehmer, ist ebenfalls ein wesentlicher Bestandteil der Vertrauenswürdigkeit. Die Handlungen des Vertrauensnehmers sind auch unter dem Aspekt zu beurteilen, dass diese nicht zulasten Dritter gehen.

Im Rahmen der KI wird – unter anderem im AI-Act (vgl. S. 46) – gefordert, dass entsprechende Anwendungen nicht nur auf den Menschen zentriert sein sollen, sondern (teilweise) auch hohen ethischen Anforderungen genügen müssen. Die Umsetzung dieser allgemein formulierten Ansprüche erfordert jedoch ein Austarieren zugunsten aller beteiligten Parteien – diesbezüglich gilt es einerseits, die maßgeblichen Werte der Gesellschaft ins Kalkül zu ziehen, aber andererseits ebenso die Realität sowie die berechtigten Interessen der Unternehmen.

Daraus wird ersichtlich, dass KI-Anbieter zur Untermauerung ihrer Vertrauenswürdigkeit ihre Handlungsweise wohldurchdacht erklären sollten. Essenziell ist dabei, auch zu konkretisieren, was sie bei der Entwicklung und dem Inverkehrbringen ihrer KI-Lösung – über die gesetzlichen Anforderungen hinaus – tun beziehungsweise unterlassen, um im (besten) Sinne der Anwender zu handeln. Wobei sich gerade in der Selbstbegrenzung „als Fähigkeit, seine eigene Freiheit, sei es in Form von Erwartungen an andere oder in Form des eigenen Handelns, so einzuschränken, dass der Gebrauch dieser Freiheit keine Schädigungen zur Folge hat“ [2], der Respekt von Unternehmen ihren Kunden gegenüber ausdrückt.

Forschungsansatz zum Vertrauen

Das Kardinalproblem, um Vertrauenswürdigkeit zu erlangen, liegt nach Ansicht von Niklas Luhmann darin, sich die Perspektive der Vertrauensgeber zu erschließen: „Wer sich Vertrauen erwerben will, muss […] in der Lage sein, fremde Erwartungen in die eigene Selbstdarstellung mit einzubauen“ [3]. Relevant ist im Kontext der Vertrauenswürdigkeit somit vorrangig, die fremden Erwartungen (hier jene der Vertrauensgeber) systematisch zu erheben.

Aufgrund dieser Erkenntnis wurde im Rahmen des Forschungsprojekts „TrustKI – Vertrauenswürdigkeits-Plattform für KI-Lösungen und Datenräume“ als notwendig angesehen, vorab die Zusammenhänge zum Aufbau von Vertrauen mittels einer Studie zu analysieren. Basierend auf der Annahme, dass für den Entscheidungsprozess spezifische Kriterien zur Beurteilung der Vertrauenswürdigkeit von Bedeutung sind, wurde die „Anwender-Studie TrustKI“ aufgelegt. Ziel war es, die These zu verifizieren oder zu falsifizieren, dass die transparente Zurverfügungstellung zweckbestimmter Informationen hierfür geeignet ist.

Zur Ermittlung entsprechender Fragestellungen wurden die im Folgenden näher erläuterten sieben Vertrauenswürdigkeits-Aspekte aus dem bereits etablierten Vertrauenswürdigkeits-Modell als Basis gewählt (Abb. 1). Darüber lässt sich zum einen der Zusammenhang zwischen Vertrauen und Vertrauenswürdigkeit nachvollziehen – zum anderen macht es transparent, was getan werden muss, um auf Basis der Vertrauensfähigkeit eines Nutzers mithilfe der wahrgenommenen Vertrauenswürdigkeit der KI-Lösung, des Unternehmens und der Domäne ein institutionelles Vertrauen aufzubauen [4].

Abbildung 1: Vertrauenswürdigkeits-Modell

Vertrauenswürdigkeits-Plattform als Ökosystem

Die Intention hinter der angestrebten Vertrauenswürdigkeits-Plattform ist, mit den dort dargelegten Informationen des jeweiligen KI-Anbieters einen Vertrauens-Mehrwert für Anwenderunternehmen zu schaffen. Eine weitere Zielsetzung ist, KI-Anbieter durch den Vergleich mit Wettbewerbern auf wichtige Aspekte aufmerksam zu machen und diese – auch mithilfe der Vertrauenswürdigkeits-Aspekte – so zu einer holistischen Betrachtung zu animieren, beispielsweise im Hinblick auf die Berücksichtigung gesellschaftlicher Werte.

Definition der Vertrauenswürdigkeits-Aspekte

Aspekte, die bei KI-Lösungen für den Vertrauensaufbau eine Rolle spielen, sind: Transparenz, Leistungsfähigkeit und Zweckprägnanz. Durch die Darstellung aller Aspekte der wahrgenommenen Vertrauenswürdigkeit wird der Nutzer prinzipiell in die Lage versetzt, einen Einblick in die für ihn notwendigen Details der angebotenen KI-Lösung nehmen zu können und so Vertrauen in diese aufzubauen beziehungsweise zu verstetigen.

  • Der Vertrauenswürdigkeits-Aspekt Transparenz erfordert, alle wesentlichen Informationen zur Verfügung zu stellen, die Anwender benötigen, um im gegebenen Kontext eine informierte und somit valide Entscheidung über die Vertrauenswürdigkeit einer KI-Lösung treffen zu können. Dies ist ein wichtiger Punkt, denn aufgrund der zunehmenden Komplexität der Technologie wird es für Anwender immer bedeutsamer, dass ihre jeweiligen Bedürfnisse durch die KI-Lösung angemessen abgebildet werden.
  • Der Vertrauenswürdigkeits-Aspekt Leistungsfähigkeit kann bei der Nutzung unmittelbar erfasst und auch kontrolliert werden. Daher ergeben sich daraus messbare Kriterien für eine Beurteilung, inwieweit Anwender sich beim Erreichen des beabsichtigten Einsatzzweckes unterstützt fühlen und wie gut die KI-Lösung tatsächlich dafür geeignet ist.
  • Der Vertrauenswürdigkeits-Aspekt Zweckprägnanz manifestiert sich im Verwendungszweck der KI-Lösung. Bei der Entwicklung von Funktionen muss die Intention der KI-Lösung hierfür zielgenau definiert sein. Umfasst eine KI-Lösung neben der eigentlichen Anwendung weitere Funktionen, die nur dem KI-Anbieter oder Dritten dienen, ist es im Sinne der Vertrauenswürdigkeit notwendig, diese klar darzustellen und eindeutig zu beschreiben. Zweckprägnanz legt somit den Verwendungszweck der KI-Lösung fest

Aspekte, die eine Rolle für den Aufbau von Vertrauen zu KI-Anbietern spielen, sind: Zutrauen, Zuverlässigkeit, Integrität und Sicherheit. Die Darstellung der Aspekte der wahrgenommenen Vertrauenswürdigkeit ist wichtig, um aufgrund kognitiver Faktoren ein institutionelles Vertrauen der Anwender zum Unternehmen grundsätzlich zu ermöglichen.

  • Zutrauen ist ein relevantes Kriterium für die Vertrauenswürdigkeit. Generell lässt sich dieses im Hinblick auf die Funktionalität dadurch erzeugen, dass KI-Anbieter sowohl über die Fähigkeiten ihrer Mitarbeiter als auch über die entsprechenden Betriebsmittel verfügen, um verlässliche KI-Lösungen bereitzustellen. Zutrauen muss sowohl inhaltlich erfüllt als auch transparent nachgewiesen werden.
  • Zuverlässigkeit heißt in diesem Kontext, dass KI-Anbieter stets wohlwollend im besten Sinne der Anwender – kooperativ und verantwortlich – agieren. Kooperativ handeln bedeutet unter anderem die Übernahme einer Gesamtverantwortung im Schadensfall sowie Rückrufaktionen bei identifizierten Problemen oder sofortige Mitteilung bei entdeckten Schwachstellen.
  • Integrität setzt an dieser Stelle voraus, alle Kriterien der Vertrauenswürdigkeit und besonders die ethischen Dimensionen zu beachten. Wichtig im Sinne seiner gebotenen Sorgfaltspflicht ist, dass ein KI-Anbieter als Vertrauensnehmer prinzipiell in der Lage sein muss, alle Versprechen, die er abgegeben hat, überhaupt einhalten zu können und dass er diese dann auch tatsächlich einhält. Integrität bedeutet ebenfalls die Anerkennung gesellschaftlicher Werte und Normen.
  • Sicherheit und hier besonders das Anerkennen der maßgeblichen Bedeutung von IT-Sicherheit sind geboten, damit KI-Lösungen risikoarm zu nutzen sind. Die Erfüllung von IT-Sicherheitsanforderungen ist hierbei notwendig, da Anwender im Allgemeinen nicht über die Kenntnisse verfügen, um sich adäquat zu schützen.

Ergebnisse der Anwender-Studie

KI-Lösung

Grundsätzlich wird im Kontext von KI der Begriff der Vertrauenswürdigkeit in hohem Maße mit der Forderung nach Transparenz assoziiert. Dabei bezieht sich diese momentan (noch) in erster Linie auf die KI-Lösung und umfasst die Anforderungen nach Erklärbarkeit, Interpretierbarkeit sowie Nachvollziehbarkeit – sodass die von der Anwendung getroffenen Entscheidungen auch klar zu deuten und darzulegen sind – oder eine Reproduzierbarkeit der Ergebnisse sowie allgemein der Funktionalität der Lösung.

Wie sich im Rahmen der Anwender-Studie gezeigt hat, messen die Teilnehmer diesen Aspekten ebenfalls eine hohe Bedeutung zu. Allerdings werden in diesem Kontext zumeist keine allzu expliziten Angaben erwartet, sondern eher Informationen, mittels derer sich für den Anwender sicherstellen lässt, dass die KI-Lösung als vertrauenswürdig bewertet werden kann.

So wollen zum Beispiel 60 % der Befragten nur prinzipiell etwas über den Zusammenhang zwischen Eingabedaten sowie Ergebnissen erfahren, aber keine spezifischen Details über die verwendeten KI-Modelle erhalten. Ebenfalls wichtig ist für die Teilnehmer, dass KI-Lösungen von unabhängigen Dritten überprüft werden – unter anderem bezüglich der technischen Robustheit oder auch in Bezug auf Präzision und Zuverlässigkeit der Verarbeitungslogik.

Holistische Transparenz

Die Ergebnisse belegen überdies, dass das Vertrauen der Anwender nicht ausschließlich auf der Transparenz der KI-Lösungen basiert: Vielmehr ist es notwendig, bereits etablierte Maßstäbe zu erweitern – das heißt, die Vertrauenswürdigkeit sollte (oder muss) seitens der Anwender auf den jeweiligen KI-Anbieter extendiert werden können.

Hinsichtlich möglicher Prüfkriterien für die Vertrauenswürdigkeit eines KI-Anbieters ist Transparenz in einem übergeordneten beziehungsweise holistischen Sinne erforderlich. Dies erscheint allein schon unter dem Aspekt notwendig, dass Anwender, die auf die Verlässlichkeit der jeweiligen KI-Lösung beziehungsweise auf die Kompetenz und Integrität sowie das wohlwollende Verhalten eines KI-Anbieters vertrauen, qua Definition bereits billigend ein gewisses Risiko in Kauf nehmen.

Um die daraus entstehenden Konsequenzen für Anwenderunternehmen erkennbar, bewertbar und möglicherweise reduzierbar machen zu können, ist deren Forderung nach einer übergeordneten Transparenz plausibel, die zum großen Teil auf Ethik referenziert – also mehr umfasst als den momentan allseitig erhobenen Transparenz-Anspruch an die KI-Lösung selbst. Im Rahmen der Anwender-Studie wurden für fünf Transparenz-Parameter (u. a. Privatheit oder Autonomie) sowie drei subsumierende Merkmale (u. a. Folgenabschätzung) Fragen erhoben, anhand deren Beantwortung es für Anwender möglich ist, Vertrauen zu einem KI-Anbieter aufzubauen.

Daten

Das Thema Daten spielt eine fundamentale Rolle, was sich an verschiedenen Stellen der Anwender-Studie erweist. Zum Beispiel erachten es knapp 69% der Befragten als sehr wichtig, dass sie im Vorfeld darüber informiert werden, ob potenziell ein Risiko hinsichtlich des Abflusses beziehungsweise des Ausspähens sensitiver Daten besteht. Aber auch die Trainingsdaten werden seitens der Befragten kritisch hinterfragt, unter anderem bezüglich deren Qualität.

Vertrauenswürdigkeits-Aspekt „Integrität“

Neben allgemeinen Auskünften im Kontext des Vertrauenswürdigkeits-Aspekts Zutrauen (u. a. ob wichtige organisatorische Prozesse etabliert sind) werden vermehrt auch Aspekte bezüglich der Integrität hintergefragt – beispielsweise bezüglich der Umsetzung der (ethischen) Sorgfaltspflicht, die sich in erster Linie im Nicht-Schädigungsprinzip manifestiert: So ist es unter anderem für fast 92 % der Teilnehmer zum Aufbau von Vertrauen wichtig oder sehr wichtig, dass sie darüber informiert werden, auf welche Funktionalität ein KI-Anbieter zum Wohle seiner Kunden verzichtet. Zudem wollen viele der Befragten nicht nur die Information erhalten, ob eine Folgenabschätzung vorgenommen wurde, sondern auch weitere Details hinsichtlich der entsprechenden Umsetzung erfahren.

Vertrauenswürdigkeits-Aspekt „IT-Sicherheit“

Die detaillierten Ergebnisse in der Gesamtauswertung [5] zeigen, dass bei dem Vertrauenswürdigkeits-Aspekt „IT-Sicherheit“ durchweg eine hohe Zustimmung seitens der Teilnehmer zu verzeichnen ist. Die zusammengefassten Werte (wichtig und sehr wichtig) liegen hier häufig – über alle segmentierten Gruppen hinweg – bei über 90 %.

Für eine Wertsteigerung im Sinne der IT-Sicherheit sind zwei Kriterien maßgeblich: Zum einen ist es notwendig, dass ein gewisser Grad an IT-Grundschutz vorhanden ist, um die Sicherheit der Prozesse kontinuierlich zu verbessern. Zum anderen ist es für die Teilnehmer mit Blick auf die IT-Infrastruktur substanziell, dass diese durch entsprechende IT-Sicherheitsmaßnahmen wirksam geschützt wird. Ein weiterer Mehrwert ergibt sich nach Ansicht der Teilnehmer daraus, dass ein KI-Anbieter mehr in IT-Sicherheit investiert als seine Wettbewerber.

Vertrauenswürdigkeits-Aspekt „Zutrauen“

In diesem Aspekt zeigt sich die Kompetenz der KI-Anbieter – dementsprechend ist es für viele Teilnehmer relevant, mehr über die Qualifikation der Mitarbeiter zu erfahren. Bemerkenswert ist die hohe Relevanz des Produktionsstandorts Deutschland: Diesen erachten fast 80 % als wichtig oder sehr wichtig. Dies legt nahe, dass die hierzulande verlässlichen gesetzlichen Regelungen (u. a. bzgl. des Datenschutzes und der EU-Produktsicherheitsvorschriften) Anwendern die Gewissheit geben, in geregelter Form zu ihrem Recht kommen zu können, wenn ein KI-Anbieter das in ihn gesetzte Vertrauen missbraucht. Zudem ist dies ein potenzieller Indikator dafür, dass dem gemeinsamen Wertverständnis eine große Bedeutung beigemessen wird. Dies lässt wiederum darauf schließen, dass der übergeordnete Begriff der Transparenz und die damit inhärent assoziierte Zuverlässigkeit im Rahmen der Vertrauenswürdigkeit von KI-Anbietern als signifikant bewertet wird.

Fazit

Dass die aus dem Einsatz von KI resultierenden Implikationen unmittelbar sowohl Anwenderunternehmen als auch potenziell deren Kunden sowie mittelbar die Gesellschaft betreffen, wird mittlerweile seitens der Anwender zunehmend wahrgenommen. Dadurch lässt sich der Wunsch nach einer holistischen Transparenz erklären, die sich in allen sieben in diesem Beitrag aufgeführten Vertrauenswürdigkeits-Aspekten manifestiert. Anwender möchten sichergestellt wissen, dass die Werte des KI-Anbieters mit den ihren vereinbar sind.

Die Ergebnisse der Anwender-Studie TrustKI werden derzeit im Rahmen von Workshops mit KI-Anbietern diskutiert – mit dem Ziel, die Interessen von Anwendern und Anbietern auszutarieren. Hierzu ist in einer der kommenden Ausgaben der die Veröffentlichung weiterer Ergebnisse geplant. Die komplette Anwender-Studie TrustKI [5] sowie der zugehörige 35-seitige Forschungsbericht (Registrierung erforderlich) sind über www.vertrauenswürdigkeit.com bereits jetzt kostenfrei als PDF erhältlich.

Ulla Coester ist Lehrbeauftragte für digitale Ethik an der Hochschule Fresenius in Köln sowie Doktorandin, wissenschaftliche Mitarbeiterin und Projektleiterin „TrustKI“ am if(is) Institut für Internet-Sicherheit der Westfälischen Hochschule Gelsenkirchen. Prof. Dr. Dipl.-Ing. Norbert Pohlmann ist Professor für Informationssicherheit an der Westfälischen Hochschule Gelsenkirchen sowie geschäftsführender Direktor des if(is).

Literatur

[1] Andreas Suchanek, Unternehmensethik, In Vertrauen investieren, UTB Bd. 3990, Mohr Siebeck, April 2015, ISBN 978-3-8252-3990-9

[2] Andreas Suchanek, Ethik und Digitalisierung, in: Prof. Dr. Elisabeth Hackspiel-Mikosch, Prof. Dr. Ralf Neuhaus (Hrsg.), Ethische Herausforderungen der Digitalisierung und Lösungsansätze der angewandten Wissenschaften, Wissenschaftliche Publikationsreihe der Hochschule Fresenius, Band 1, Februar 2022, S. 21, Beitrag online verfügbar via https://doi.org/10.53168/issn.2749-4403_1.2021_21-36 – Gesamtwerk: https://images.amdnet.de/www.amdnet.de/uploads/HSF-Band-gesamt.pdf

[3] Niklas Luhmann, Einführung in die Systemtheorie, Carl Auer, 9. Auflage, Dezember 2023, ISBN 978-3-89670- 839-7

[4] Ulla Coester, Prof. Dr. Norbert Pohlmann, Vertrauenswürdigkeit schafft Vertrauen, Vertrauen ist der Schlüssel zum Erfolg von IT- und IT-Sicherheitsunternehmen, Datenschutz und Datensicherheit – DuD Vol. 46, S. 233, März 2022, https://link.springer.com/article/10.1007/s11623-022-1594-7  (kostenpflichtig)

[5] Institut für Internet-Sicherheit – if(is), Studienergebnisse zur Anwender-Studie TrustKI, Januar 2024, https://vertrauenswürdigkeit.com/studienergebnisse-anwenderstudie-trustki/

Diesen Beitrag teilen: