Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Free

Der EU AI Act: Das neue Fundament für KI-Regulierung in Europa : Wie der EU AI Act Europas KI-Landschaft verändert – Pflichten, Risiken und Chancen für Unternehmen im Überblick

Mit dem EU AI Act schafft die Europäische Union erstmals einen umfassenden Rechtsrahmen zur Regulierung künstlicher Intelligenz. Unternehmen und Organisationen müssen künftig neue Pflichten erfüllen – abhängig vom Risiko, das ihr KI-System birgt.

Lesezeit 10 Min.

Künstliche Intelligenz (KI) verändert die Wirtschaft und Gesellschaft. Dabei bringen KI-Systeme nicht nur Vorteile, sondern auch Risiken, die Grundrechte, Sicherheit und Vertrauen betreffen. Der EU-AI-Act, offiziell seit Juli 2024 in Kraft und ab Juli 2026 verbindlich, stellt sicher, dass in Europa entwickelte und eingesetzte KI verantwortungsvoll gestaltet wird. Dieser Artikel zeigt, wie das Gesetz funktioniert, wen es betrifft, wie die Risikoklassifizierung abläuft und welche praktischen Folgen sich für Unternehmen ergeben.

Zielsetzung und Hintergrund des EU-AI-Act

Die EU verfolgt mit dem AI Act mehrere zentrale Ziele. Erstens soll ein einheitliches Regelwerk für alle Mitgliedstaaten geschaffen werden, um das Vertrauen der Öffentlichkeit in KI-Technologien zu stärken und eine Marktfragmentierung zu verhindern. Zweitens will die EU Innovation und Wettbewerbsfähigkeit fördern, ohne dabei Sicherheit und Grundrechte zu vernachlässigen.

Die Entstehung des Gesetzes war von intensiven politischen Debatten geprägt. Bereits 2018 veröffentlichte die Kommission erste Strategiepapiere, im April 2021 folgte ein Entwurf für die Verordnung. Der Durchbruch kam nach langen Verhandlungen Ende 2023, als sich Rat und Parlament auf die Einbeziehung generativer KI und Basismodelle einigten. Nach der Verabschiedung im Mai 2024 und der Veröffentlichung im Amtsblatt im Juli 2024 ist der EU AI Act nun geltendes Recht.

Das Ziel: Europa als Vorreiter für ethische, sichere und innovative KI zu positionieren – und dabei ein Gleichgewicht zwischen Innovationsförderung und Risikominimierung herzustellen.

Anwendungsbereich und betroffene Akteure

Der Anwendungsbereich des EU-AI-Act ist breit gefasst. Die Verordnung gilt für alle KI-Systeme, die auf dem EU-Markt bereitgestellt oder verwendet werden – unabhängig davon, ob der Anbieter oder Nutzer in der EU ansässig ist. Entscheidend ist, ob der KI-Output in der EU verwendet wird. Damit sind auch internationale Anbieter, etwa aus den USA oder Asien, erfasst, sobald ihr System in der EU zum Einsatz kommt.

Der Act unterscheidet zwischen Anbietern (die ein KI-System entwickeln oder in Verkehr bringen) und Bereitstellern (die das System unter ihrer Aufsicht einsetzen). In der Praxis kann diese Unterscheidung verschwimmen, zum Beispiel wenn Unternehmen sowohl eigene KI entwickeln als auch Systeme Dritter nutzen.

Ausgenommen sind Forschungs- und Entwicklungsprojekte bis zur Markteinführung sowie KI-Systeme, die ausschließlich für militärische oder nationale Sicherheitszwecke entwickelt werden. Auch persönliche, nicht berufliche Nutzung fällt nicht unter die Regulierung.

Die breite Definition von KI-Systemen deckt maschinengestützte, teilweise oder vollständig autonome Systeme ab, die aus Eingaben Vorhersagen, Entscheidungen oder sonstige Ausgaben erzeugen, die physische oder virtuelle Umgebungen beeinflussen können. Die Pflichten erstrecken sich über den gesamten Lebenszyklus des Systems – von der Entwicklung über die Inbetriebnahme bis hin zum laufenden Betrieb.

Der risikobasierte Ansatz: Vier Kategorien und ihre Bedeutung

Kernstück des EU-AI-Act ist der risikobasierte Ansatz. Die Anforderungen an ein KI-System richten sich nach dem potenziellen Risiko, das von dessen Einsatz ausgeht. Die Verordnung unterscheidet vier Kategorien:

Unannehmbares Risiko: Verbotene KI-Praktiken

Eine kleine Gruppe von KI-Anwendungen wird in der EU vollständig verboten. Dazu zählen:

  • KI-Systeme, die unterschwellige, manipulative oder täuschende Techniken einsetzen, um Menschen zu schädlichem Verhalten zu verleiten.
  • Systeme, die gezielt Schwächen besonders schutzbedürftiger Gruppen (z. B. Kinder, Menschen mit Behinderung) ausnutzen.
  • Social Scoring durch Behörden, also die soziale Bewertung von Menschen mit negativen Konsequenzen.
  • Echtzeit-Biometrie im öffentlichen Raum durch Strafverfolgungsbehörden (mit wenigen Ausnahmen).
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, außer für medizinische oder Sicherheitszwecke.
  • Ungezieltes Sammeln von Gesichtsbildern aus Internet oder Überwachungskameras zum Aufbau von Datenbanken.

Damit setzt die EU bewusst Grenzen, um Grundrechte und die Würde des Einzelnen zu schützen.

Hohes Risiko: Strenge Anforderungen für kritische Systeme

Viele KI-Anwendungen, die das Potenzial haben, die Grundrechte oder die öffentliche Sicherheit zu beeinträchtigen, werden als hochriskant eingestuft. Dazu zählen unter anderem:

  • Biometrische Identifizierung und Kategorisierung natürlicher Personen
  • Verwaltung und Betrieb kritischer Infrastrukturen (z. B. Energie, Verkehr)
  • Bildung (z. B. Zulassung, Benotung, Verhaltensüberwachung)
  • Personalmanagement (z. B. Einstellung, Leistungsbewertung)
  • Zugang zu grundlegenden privaten oder öffentlichen Diensten (z. B. Sozialleistungen, Kredite)
  • Strafverfolgung, Migration, Asyl und Grenzkontrolle
  • Rechtspflege und demokratische Prozesse
  • Sicherheitskomponenten regulierter Produkte wie Medizinprodukte oder Maschinen

Diese Systeme dürfen nur unter Erfüllung strenger Auflagen in Verkehr gebracht und betrieben werden.

Spezifisches Transparenzrisiko: Kennzeichnungspflichten für KI

Unabhängig von der sonstigen Risikoeinstufung legt der AI Act für bestimmte KI-Anwendungen spezifische Transparenzpflichten fest. Insbesondere wenn ein System mit Menschen interagiert oder synthetische Inhalte erzeugt, muss klar erkennbar sein, dass es sich um KI handelt. Beispiele:

  • Chatbots im Kundenservice müssen sich als KI zu erkennen geben.
  • KI-generierte Texte, Bilder, Audio- oder Videoinhalte (Deepfakes) brauchen eine maschinenlesbare Kennzeichnung.
  • Social-Media-Profile, die mit KI gesteuert werden, müssen dies offenlegen.

Es gibt Ausnahmen, etwa für Kunst, Satire, redaktionelle Beiträge oder Strafverfolgung.

Geringes Risiko: Keine zusätzlichen Pflichten

Die meisten KI-Systeme (z. B. Empfehlungssysteme im E-Commerce, Spamfilter, Übersetzungstools) gelten als risikoarm. Für sie gelten keine zusätzlichen Anforderungen über das bestehende Recht hinaus. Anbieter können sich freiwillig höheren Standards und Verhaltenskodizes unterwerfen.

General Purpose AI: Sonderregeln für Basismodelle

Ein eigenes Kapitel widmet sich KI-Systemen mit allgemeinem Verwendungszweck (General Purpose AI, GPAI). Dazu zählen große Sprachmodelle wie ChatGPT oder Bildgeneratoren wie Dall-E. Diese Modelle können in vielen unterschiedlichen Anwendungen zum Einsatz kommen. Der AI Act legt für GPAI-Modelle zusätzliche Anforderungen fest, unabhängig von der konkreten Risikokategorie des Endprodukts.

Anforderungen an Hochrisiko-KI-Systeme: Pflichten für Unternehmen

Für Anbieter und Betreiber von Hochrisiko-KI-Systemen gelten umfangreiche Vorgaben. Diese Pflichten sind zentral, da bei Verstößen erhebliche Bußgelder drohen.

Risikomanagement und Datenmanagement

Unternehmen müssen ein Risikomanagementsystem über den gesamten Lebenszyklus des KI-Systems einführen. Dabei sollen vorhersehbare Risiken identifiziert, bewertet und geeignete Gegenmaßnahmen festgelegt werden. Die Qualität der Trainings- und Testdaten ist entscheidend. Daten müssen repräsentativ und zweckmäßig aufbereitet sein, Verzerrungen (Bias) sind zu minimieren. Die Herkunft und Verarbeitung der Daten ist umfassend zu dokumentieren.

Technische Dokumentation und Nachvollziehbarkeit

Eine vollständige technische Dokumentation ist Pflicht. Diese muss eine Überprüfung durch Behörden ermöglichen und alle relevanten Ereignisse aufzeichnen. Unternehmen müssen in der Lage sein, jederzeit darzulegen, wie das System arbeitet und wie Entscheidungen zustande kommen. Änderungen und Abweichungen müssen dokumentiert und nachverfolgbar sein.

Transparenz und Information

Nutzer müssen verständliche Gebrauchsanweisungen und Informationen über die Funktionsweise erhalten. Anbieter müssen Kontaktinformationen bereitstellen und die Grenzen und Einschränkungen des Systems offenlegen. Die Sprache der Dokumentation soll für die jeweilige Zielgruppe verständlich sein.

Menschliche Aufsicht

Die Systeme müssen menschliche Aufsicht ermöglichen. Das bedeutet: Eine natürliche Person muss die Funktionsweise nachvollziehen, Ergebnisse interpretieren und im Zweifel das System stoppen können. Das sogenannte „Human-in-the-loop“-Prinzip ist bei kritischen Entscheidungen essenziell. Unternehmen müssen sicherstellen, dass Mitarbeitende entsprechend geschult und befähigt sind.

Genauigkeit, Robustheit und Cybersicherheit

Die Systeme müssen während des gesamten Lebenszyklus genau, robust und widerstandsfähig gegen Störungen und Angriffe sein. Die Cybersicherheit ist ein zentrales Element. Unternehmen müssen Maßnahmen ergreifen, um Angriffe wie Data Poisoning, Model Poisoning, adversarial Examples oder Model Evasion abzuwehren. Absolute Sicherheit ist nicht gefordert, aber ein angemessenes Schutzniveau muss gewährleistet werden.

Zusammenspiel mit anderen Regularien: DSGVO, Haftung und Standards

DerAI-Act steht nicht allein, sondern ist Teil eines größeren europäischen Rechtsrahmens. Besonders relevant sind Überschneidungen mit der Datenschutz-Grundverordnung (DSGVO) und weiteren Vorschriften.

Die DSGVO schützt personenbezogene Daten und verlangt etwa eine Datenschutz-Folgenabschätzung (DSFA) bei risikobehafteten Verarbeitungsvorgängen. Der AI Act verpflichtet zur Integration von KI-Gebrauchsinformationen in die DSFA. Auch das Prinzip der Datenminimierung aus der DSGVO gilt beim Training von KI – ein Spannungsfeld, denn viele Modelle benötigen große Datenmengen. Bei der Verarbeitung besonderer Kategorien personenbezogener Daten (z. B. Gesundheitsdaten, ethnische Herkunft) für Bias-Kontrolle bleibt die Einhaltung der DSGVO zwingend.

Nationale Behörden überwachen die Einhaltung beider Regelwerke, was eine enge Zusammenarbeit erfordert. Die geplante KI-Haftungsrichtlinie ergänzt den AI Act, indem sie die Haftung für Schäden durch KI-Systeme regelt.

Freiwillige Standards wie ISO/IEC 42001 (KI-Management-Systeme), ISO/IEC 23894 (Risikomanagement) und das NIST AI RMF 1.0 können Unternehmen bei der Umsetzung unterstützen. Sie ersetzen keine gesetzlichen Pflichten, helfen aber, Prozesse zu strukturieren und Compliance nachzuweisen.

Der Cyber Resilience Act (CRA) definiert parallel Anforderungen an die Cybersicherheit digitaler Produkte, inklusive KI-Systemen. Unternehmen müssen beide Regelwerke koordinieren, da sich viele Prinzipien wie Security by Design und Produktbeobachtungspflichten überschneiden.

Praktische Umsetzung in Unternehmen: Von der Richtlinie zur Compliance

Die Umsetzung des EU-AI-Act erfordert ein abgestimmtes Vorgehen über mehrere Unternehmensbereiche hinweg. Frühzeitige Vorbereitung ist der Schlüssel, da nachträgliche Anpassungen aufwendig und teuer werden können.

Zunächst sollten Unternehmen eine betriebliche KI-Richtlinie entwickeln, die den Einsatz und die Rahmenbedingungen für KI klar regelt. Diese Richtlinie sollte Vertrauen und Transparenz fördern, die Einbindung der Mitarbeitenden sicherstellen und das betriebliche Datenschutzkonzept ergänzen.

Ethische Aspekte sind ebenfalls zu berücksichtigen: Fairness, Nichtdiskriminierung, Bias-Erkennung und -Vermeidung sowie der Respekt vor der menschlichen Würde sind zentrale Themen. Ein Ethik-Komitee oder regelmäßige ethische Reviews können den verantwortungsvollen Einsatz stärken.

Schulungen und Sensibilisierung der Mitarbeitenden sind unerlässlich. Nur so entsteht das nötige Verständnis für Risiken, Chancen und einen verantwortungsvollen Umgang mit KI. Sicherheits- und Risikomanagement müssen KI-spezifische Aspekte einschließen, Schwachstellenmanagement und Incident-Response-Prozesse sind anzupassen.

Regelmäßige Evaluation, Feedbackmechanismen und kontinuierliche Verbesserung der Systeme sind Pflicht. Ein vollständiges Inventar aller eingesetzten und geplanten KI-Systeme ist die Grundlage für gezielte Compliance-Maßnahmen. Verantwortlichkeiten, Kompetenzen und Prozesse sollten klar definiert und – falls sinnvoll – externe Partner zur Unterstützung eingebunden werden.

Grenzen des EU AI Act: Cybercrime bleibt eine Herausforderung

Der EU‑AI‑Act kann zwar sichere Rahmenbedingungen für den Einsatz von KI schaffen, ist aber kein Schutzschild gegen Cyberkriminalität. Viele Täter agieren aus dem Ausland, wo europäische Regeln nicht greifen. Zudem sorgt Regulierung oft für neue Umgehungstechniken wie AI-Jailbreaking oder den Einsatz speziell entwickelter krimineller KI-Tools wie WormGPT. Unternehmen müssen daher technische und organisatorische Schutzmaßnahmen mit rechtlichen Vorgaben kombinieren. Awareness und Schulung sind wichtige Verteidigungslinien.

Zeitplan, Übergangsfristen und Bußgelder

Der EU-AI-Act ist seit Juli 2024 in Kraft. Nach einer zweijährigen Übergangsfrist gelten die meisten Vorschriften ab Juli 2026. Einzelne Regelungsbereiche wie das Verbot bestimmter Praktiken oder Transparenzpflichten greifen teils früher. Unternehmen sollten sich rechtzeitig vorbereiten, um teure Nachbesserungen und Bußgelder zu vermeiden.

Die Bußgelder können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen. Die genaue Höhe richtet sich nach Art und Schwere des Verstoßes, Unternehmensgröße und Kooperationsbereitschaft. Auch zivilrechtliche Haftung und weitere Sanktionen sind möglich.

Ausblick: Wie es weitergeht

Mit dem EU-AI-Act beginnt die Regulierung von KI in Europa. Die EU-Kommission wird in den nächsten Jahren weitere Leitlinien und Standards entwickeln. Praktische Erfahrungen aus der Umsetzung werden zu Anpassungen führen. Die internationale Dimension wird wichtiger, denn andere Länder entwickeln eigene KI-Regulierungen. Die technologische Entwicklung schreitet schneller voran als die Gesetzgebung – Flexibilität und kontinuierliche Anpassung sind daher unerlässlich.

Fazit

Der EU-AI-Act ist ein Meilenstein für die sichere und verantwortungsvolle Nutzung von KI in Europa. Unternehmen sollten den risikobasierten Ansatz verstehen, ihre Systeme korrekt einstufen und frühzeitig Maßnahmen zur Compliance ergreifen. Das Zusammenspiel mit der DSGVO und anderen Regularien erfordert eine ganzheitliche Strategie. Wer jetzt handelt, kann Risiken minimieren und zugleich Vertrauen bei Kunden, Partnern und Behörden schaffen.

(Dieser Artikel basiert auf Inhalten aus dem <kes>-Archiv sowie externen Fachquellen. Er wurde mithilfe von KI erstellt und durch die Redaktion inhaltlich und sprachlich geprüft.)

Literatur

[1] Anil Tahmisoğlu, EU AI Act: So funktioniert die Klassifizierung von KI-Systemen, <kes>, 24.06.2025, https://www.kes-informationssicherheit.de/artikel/eu-ai-act-so-funktioniert-die-klassifizierung-von-ki-systemen/

[2] Prof. Dr. iur. Dennis-Kenji Kipker, Habemus AI-Act!, <kes>, 20.08.2024, https://www.kes-informationssicherheit.de/print/titelthema-die-zeitschrift-fuer-informations-sicherheit/habemus-ai-act/

[3] David Oliva, Wolfgang K. Walter, Künstliche Intelligenz: EU AI-Act: Zukünftige Regulierung künstlicher Intelligenz in der EU, <kes>, 20.02.2024, https://www.kes-informationssicherheit.de/print/titelthema-kuenstliche-intelligenz-zwischen-regulierung-und-vertrauen/eu-ai-act/

[4] Europäische Kommission, Künstliche Intelligenz für Europa, Mitteilung der Kommission SWD(2018) 137 final, April 2018, https://eurlex.europa.eu/legal-content/DE/TXT/?uri=CELEX:52018DC0237

[5] Europätische Union, Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz), in: Amtsblatt der Europäischen Union Reihe L, Juli 2024, https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689

[6] European Parliamentary Research Service (EPRS), General-purpose artificial intelligence, Members’ Research Service PE 745.708, März 2023, https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf

Diesen Beitrag teilen: