Wieviel Kontrolle benötigt KI?
Weltuntergangsszenarien durch KI haben derzeit Hochsaison. Betrachtet man die Aspekte Datenschutz und Sicherheit, wirken KI-Innovationen wirklich beängstigend: Von den Möglichkeiten durch Deepfakes, dem Klonen von menschlichen Stimmen und der Unterstützung raffinierter Social-Engineering-Angriffe ist es nur noch ein kleiner Schritt, sich eine Apokalypse durch KI-Technologien vorzustellen. Doch ist das wirklich die unweigerliche Konsequenz? Und wie kann KI kontrolliert und reguliert werden, um sie sinnvoll einzusetzen und beherrschbar zu machen?
Während der weltweiten Begeisterung, die ChatGPT im vergangenen Jahr ausgelöst hatte, veröffentlichte Eliezer Yudkowsky, einer der führenden Vertreter auf dem Gebiet der Künstlichen Allgemeinen Intelligenz (Artificial General Intelligence, AGI) einen Kommentar im Magazin Time, in dem er Möglichkeiten auflistet, den groß angelegten Einsatz von künstlicher Intelligenz (KI) einzuschränken, um unbeabsichtigten Entgleisungen oder böswilligem Missbrauch mit katastrophalen Folgen vorbeugen zu können. Verbunden mit der Forderung, „alles abzuschalten“ und die KI-Forschung auf unbestimmte Zeit einzustellen, legt er dar, dass die Menschheit zum gegenwärtigen Zeitpunkt nicht reif genug ist für all die Implikationen, die KI mit sich bringt. Yudkowski hält den Untergang der Menschheit für eine nahezu sichere Konsequenz, sollte es KI gelingen, eine gewisse Bewusstseinsschwelle zu überschreiten, was er für äußerst wahrscheinlich hält.
Doch die Geschichte zeigt, dass sich der technologische Fortschritt nicht aufhalten lässt. Ob Alchemie oder Gentechnik: Entdeckungen werden stets weiterentwickelt, ob im Namen der Wissenschaft, im Interesse der nationalen Sicherheit oder Unternehmensgewinnen.
Regulierung: Kernwaffen als Vorbild
KI ist eine Technologie, die Anwendungsmöglichkeiten zum Wohl der Menschheit eröffnet, allerdings auch das Potenzial für Missbrauch mit katastrophalen Folgen birgt. Die Regulierung ihres Einsatzes ist entsprechend ein dringendes Anliegen für Regierungen weltweit. Mit dem AI-Act, der KI-Systeme in verschiedene Risikogruppen mit entsprechenden regulatorischen Anforderungen einteilt, hat die Europäische Union einen prägnanten Rechtsrahmen geschaffen, der darauf abzielt, Missbrauch zu verhindern ohne Innovation zu unterdrücken.
Erst vor kurzem hat Sundar Pichai, der Vorstandschef des Google-Mutterkonzerns Alphabet, angeregt, auch über einen globalen Rechtsrahmen nachzudenken. Was eine internationale Regulierung von KI angeht, scheint es vorstellbar, dass die Staatengemeinschaft das Prinzip eines seit Jahrzehnten bewährten juristischen Rahmenwerks nutzen wird: Denn bereits im 20. Jahrhundert verfügte die Menschheit mit Atomwaffen über eine Technologie, die das Potenzial besitzt, das gesamte Leben auf der Erde zu zerstören. Nach zwei verheerenden Weltkriegen sah man in der Entwicklung von Kernwaffen die Chance, kriegerische Auseinandersetzungen, ohne eigene menschliche Verluste für sich entscheiden zu können. Die schiere Überlegenheit, per Knopfdruck fatale Zerstörung freisetzen zu können, sollte Gegner dazu bewegen, Konflikte nicht eskalieren zu lassen. Soweit zumindest die Theorie.
Dieser Vorteil wird allerdings nichtig, wenn die Gegenseite ebenfalls über Atomwaffen verfügt. Entscheidet eine Konfliktpartei, seine Nuklearwaffen zu zünden, bleibt deren Gegner genug Zeit, mit einem Atomschlag zu reagieren. Das Ergebnis wären jedoch Schäden von katastrophalem Ausmaß auf beiden Seiten. Das Bewusstsein für dieses „Gleichgewicht des Schreckens“ führte 1970 zur Unterzeichnung des Atomwaffensperrvertrags zwischen den USA und der Sowjetunion, in der die beiden Staaten sich zur Abrüstung und der Nichtverbreitung von Kernwaffen verpflichten. Mittlerweile sind etwa 90 Staaten dem Abkommen beigetreten, in dem Bestreben, eine Welt ohne Nuklearwaffen zu schaffen.
Es ist daher denkbar, dass die internationale Staatengemeinschaft ähnliche regulatorische Schritte unternehmen wird, um zu verhindern, dass KI-Technologie eine kritische, gefährliche Schwelle überschreiten kann.
Weitere Maßnahmen gegen KI-Entgleisungen
Abgesehen vom juristischen Bereich bestehen gegenwärtig weitere Kontrollmechanismen, die sinnvoll auf KI-Technologien angewendet werden können, um das Risiko von Entgleisungen oder Missbrauch zu verhindern:
- Kill-Switches: In Software-Produkten sind sie gang und gäbe, selbst Ransomware-Entwickler bauen in ihre Schadsoftware virtuelle Kill-Switches ein, um sie unter bestimmten Bedingungen abschalten zu können. Derartige Notausschalter sollten auch bei KI integraler Bestandteil des Entwicklungsprozesses sein, um reagieren zu können, wenn die KI außer Kontrolle gerät.
- Eindämmung von Experimenten: Das Betätigen eines Notausschalters kann dennoch massive Auswirkungen nach sich ziehen, je nachdem, welche Systeme mit der betroffenen KI-Technologie verbunden sind. Es ist daher ratsam, Experimente mit überaus fortgeschrittener KI in einer Sandbox mit verknappten Ressourcen außerhalb davon durchzuführen. Dies bietet zwar keine absolute Sicherheit, kann aber den Unterschied zwischen einem lokal begrenzten Vorfall und einer weitreichenden Katastrophe machen.
- Transparente Forschung: Die Open-Source-KI-Entwicklung fördert nicht nur Innovationen und demokratisiert den Zugang zu einer leistungsstarken Basistechnologie, sondern bietet auch viele Sicherheitsvorteile, von der Erkennung von Sicherheitslücken und gefährlichen Entwicklungslinien bis hin zur Schaffung von Abwehrmaßnahmen gegen potenziellen Missbrauch der Technologie. Bisher unterstützt Big Tech Open-Source-Bemühungen, wenn auch etwas widerwillig. Dies könnte sich hingegen ändern, wenn sich der Wettbewerb verschärft und Open-Source-Software deren Gewinne schmälert. Unter Umständen muss hier der Gesetzgeber tätig werden, um den Zugang der Open-Source-Community zu großen Datenmodellen und Datensätzen zu erhalten, die größtenteils von den Tech-Giganten monopolisiert werden. Schließlich wurden sie aus öffentlichen Daten erstellt.
Wie kann KI ethische Normen erlernen?
Immer wieder machen „bösartige“ KI-Vorfälle Schlagzeilen. Meist handelt es sich dabei um Fehlfunktionen von Large Language Models (LLMs), wenn sie beispielsweise Falschinformationen, Vorurteile oder gar Hasstiraden ausgeben. Derartigen Entgleisungen sowie möglichem Missbrauch versucht man durch Spot-Patching einzelner Prompt-Exploits vorzubeugen. Dieser Ansatz ist vergleichbar mit dem Blacklisting von Malware und daher leider in seiner Wirksamkeit eher begrenzt, da immer wieder neue Exploits auftauchen können.
Man muss sich vor Augen führen, dass KI-Anwendungen keine neuen Inhalte erstellen. Da vor allem LLMs mit Webinhalten trainiert werden und nicht über eigene schöpferische Fähigkeiten verfügen, geben sie letztendlich nur eine einfache Reflexion der Informationen wieder, die ihnen zur Verfügung stehen. Sind die ursprünglichen Datensätze verzerrt, geschieht dies auch mit den KI-Ausgaben. Die Zensur der Ausgabe eines derart produktiven verbalen Generators wäre extrem ineffizient und erschafft lediglich eine weitere Ebene der Voreingenommenheit.
Ein gewissenhaftes Verhalten lässt sich nur mit zuverlässig erstellten Datensätzen erzielen. Sollen die Ausgaben von KI-Modellen ethischen Maßstäben entsprechen, müssen sie mit ausgewogenen, unvoreingenommenen Datensätzen trainiert werden – was von Datenwissenschaftlern viel Überlegung, Sorgfalt und Mühe beim Erstellen fordert.
KI als gesellschaftliche Herausforderung
Sieht die Menschheit in Zukunft der Entstehung eines KI-Superhirns entgegen, welches das Potenzial besitzt, sie auszulöschen? Dies scheint unwahrscheinlich – zumindest vorerst und mit Blick auf die kommenden zwei bis drei Jahre. Die derzeit populären LLMs werden voraussichtlich durch fachspezifische Modelle, die von Experten kuratiert werden, verdrängt werden, anstatt sich zu einer großen, allumfassenden Plattform zu entwickeln. Doch große Sprachmodelle machen lediglich einen Teil der KI-Forschung aus. Die Befürchtung, dass die Menschheit sich eines Tages auch in entscheidenden Fragen zu sehr auf KI verlässt und Kontrolle verliert, die sie nie mehr zurückerlangen kann, scheint allerdings nicht nur berechtigt, sondern auch vernünftig. Denn die Herausforderung für die Gesellschaft besteht darin, der KI-Technologie die Rolle zuzuweisen, die mit ihren Werten und Normen vereinbar ist. Dazu gehört die intensive Auseinandersetzung mit der Frage, was Menschlichkeit und menschliches Zusammenleben ausmacht, und wo die Grenze zur Technologie gezogen werden soll.
Oliver Keizers ist Area Vice President EMEA Central bei Semperis.