Crashtests für KI in Fahrzeugen : Ohne KI kein automatisiertes Fahren – neue Herausforderungen verlangen neue Lösungsansätze
Die Schlüsseltechnologie künstliche Intelligenz (KI) ermöglicht eine Vielzahl von Digitalisierungsanwendungen, wie etwa automatisiertes Fahren. Sie bringt jedoch auch neue Herausforderungen, wie etwa eine neue Qualität und Quantität von IT-Sicherheitsrisiken. Dieser Beitrag befasst sich anhand der Domäne Automotive mit dem aktuellen Stand der Entwicklung von Anforderungen, Prüfmethoden und Prüfwerkzeugen für KI-basierte Systeme. In Kombination mit technischen Richtlinien des BSI und nationalen sowie internationalen Standardisierungs- und Regulierungsaktivitäten sollen sie perspektivisch zu einer sicheren und vertrauensvollen Anwendung von KI führen.
Die Digitalisierung von Fahrzeugen macht große Fortschritte. Die Automatisierung steigert nicht nur den Komfort, etwa dank der Sprachsteuerung, sie ist auch relevant für die Sicherheit, wie das Beispiel der Spurhalteassistenten zeigt. Viele dieser Funktionen sind hochkomplex, da sie von sehr variablen Sensorinformationen abhängen, wie sie zum Beispiel auf einer belebten Straßenkreuzung zu unterschiedlichen Tages- und Jahreszeiten auftreten. Aufgrund dieser Komplexität scheitert meist die direkte Programmierung.
Als Alternative werden Systeme der KI eingesetzt, die anhand von großen Datenmengen trainiert werden. Diese Systeme sind Blackbox-Systeme, deren Güte unter anderem von der Qualität der Trainingsdaten abhängt. Zudem sind sie nicht mehr direkt interpretierbar und können nicht formal verifiziert werden. Daher können sie auch nur experimentell getestet werden. Nicht zuletzt zeigen sich KI-Systeme verwundbar, unter anderem durch adversariale und Backdooring-Angriffe.
Damit KI-Systeme trotz ihrer Vulnerabilität akzeptiert und eingesetzt werden, ist Vertrauen notwendig. Weltweit gibt es hierzu Regulierungsbemühungen, unter anderem den AI-Act der EU. Die praktische Umsetzung dieses Regelwerks für KI wird aktuell noch erforscht. Insbesondere müssen geeignete und allgemein anerkannte Anforderungen, Prüfmethoden und Prüfwerkzeuge entwickelt und praxistauglich implementiert werden. So soll die Vertrauenswürdigkeit der Systeme nachgewiesen werden.
Je nach Anwendung werden unterschiedliche Aspekte geprüft: Geht es um Mobilität, hat die funktionale Sicherheit höchste Priorität, also der Schutz von Gesundheit und Umwelt. Die Cybersicherheit von KI-Systemen in Fahrzeugen ist hierbei eine wesentliche Grundlage für die Verkehrssicherheit.
Modulare und nutzerorientierte Lösungsansätze
Aufgrund der Komplexität der Aufgabe ist ein generalistischer Lösungsansatz initial nicht zielführend. Es geht nicht um die Entwicklung von geeigneten Methoden, Kriterien und Werkzeugen für eine Prüfung aller KI-Systeme. Stattdessen verfolgt das BSI einen modularen Use-Case-zentrierten Ansatz. Über die Bearbeitung unterschiedlicher Use-Cases werden in den verschiedenen Digitalisierungsdomänen iterativ ein modularer „Prüfwerkzeugkasten“ sowie Best-Practice-Empfehlungen aufgebaut. Ziel ist, dass sich mit fortschreitender Verfeinerung der Aufwand der Anpassung an neue Use-Cases reduziert. Für die Bearbeitung der einzelnen Use-Cases wird neben KI- und Cybersicherheitsexpertinnen und -experten auch Expertise aus der jeweiligen Digitalisierungsdomäne benötigt, etwa aus der Fahrzeugsicherheit und -IT in der Mobilitätsdomäne.
Mit dem Projekt AIMobilityAudit verfolgt das BSI daher das Ziel, einen modularen Prüfwerkzeugkasten für die Mobilitätsdomäne anhand von zwei Use-Cases zu den Themen Verkehrsschildklassifikation und Verkehrsteilnehmererkennung zu entwickeln. Die 50 im Vorprojekt AIMobilityAuditPrep erarbeiteten Prüfanforderungen sollen dabei evaluiert und verfeinert werden.
Hierzu bringt das Projekt KI-, Cybersecurity- und Automotive-Fachwissen vom BSI, der Technologiefirma ZF und TÜVIT zusammen. Aufgrund der Komplexität der Anwendungen und der Notwendigkeit von empirischen Tests wird eine Kombination von Tests in Simulationen, in Hardware-in-the-Loop-Systemen und auf realen Teststrecken durchgeführt. Um diese Tests möglichst praxisnah und offen kommunizierbar zu gestalten, werden parallel Open-Source-Systeme und proprietäre Industrielösungen erprobt. Sie laufen aktuell im Labor und vor Ort in Koblenz und Friedrichshafen. Unter anderem werden speziell präparierte Verkehrsschilder und Kleidungsstücke daraufhin getestet, ob – und falls ja, in welchen Situationen – sie die Klassifikations- und Detektionssysteme zu Fehlentscheidungen verleiten können.
BSI schafft solide Grundlage für die Umsetzung des AI-Acts
Im weiteren Verlauf des Projekts sollen neben der Verwundbarkeit der aktuellen Systeme auch konkrete Mitigationsstrategien untersucht werden. Aufbauend auf den Ergebnissen ist im Laufe des Jahres 2024 die Erstellung einer modularen technischen Richtlinie zur Prüfung von KI-Systemen im Automotivebereich vorgesehen. Diese soll dann einerseits als Vorlage für weitere Digitalisierungsdomänen dienen (beispielsweise in BSI-Projekten zu den Domänen Medizin, Landwirtschaft und Finanzen) und andererseits als Grundlage für die nationale und internationale Gremienarbeit im KI- und Fahrzeugbereich genutzt werden. Das BSI trägt somit zu einer soliden Grundlage für die Operationalisierung des europäischen AI-Acts bei.