Free

Stimmen vom BSI-Kongress

Der 16. Deutsche IT-Sicherheitskongress fand vom 21.–23. Mai2019 in der Stadthalle Bonn-Bad Godesberg statt – das Kongressmotto lautete „IT-Sicherheit als Voraussetzung für eine erfolgreiche Digitalisierung“. Unsere Rückschau fasst einige Kernaussagen der Keynotes und Diskussionsrunde zur künstlichen Intelligenz (KI) zusammen.

Lesezeit 11 Min.
BSI-Kongress 2019

Mit Verweis auf den Doxing-Angriff, der Anfang 2019 rund 1000 Politiker, Prominente und Journalisten getroffen hat, mahnte BSI-Präsident Arne Schönbohm in seiner Eröffnungsrede: „Die Digitalisierung erfordert ein neues Sicherheitsbewusstsein, da potenzielle Täter Schwächen individuellen Verhaltens in Verbindung mit strukturell unzureichend gesicherten Systemen gezielt ausnutzen können.“ Der Staat müsse daher im Rahmen seines Präventionsauftrags Sensibilisierungsmaßnahmen und verbindliche Standards verstärkt adressieren.

Neben der Sensibilisierung von Bürgern und dem flächendeckenden Einsatz von Ende-zu-Ende-Verschlüsselung gehören laut Schönbohm zu einer nachhaltigen Cybersicherheit auch die Forderungen nach einem herstellerseitig standardisierten „Security by Design“- und „Security by Default“-Ansatz.

Um letztlich ein angemessenes Cybersicherheitsniveau zu erreichen, seien eine enge Zusammenarbeit und der Austausch auf verschiedenen Leveln ebenfalls essenziell – sowohl europäisch und international, vor allem aber auch auf nationaler und lokaler Ebene. „Dieser Kongress vereint alle Ebenen“, freute sich Schönbohm – wie auch die spätere Vorstellung des zweiten französisch-deutschen Cyber-Sicherheitslagebilds als Produkt einer engen internationalen Zusammenarbeit zeige.

Innerhalb Deutschlands habe das BSI in den vergangenen zwei Jahren erfreulicherweise neun Absichtserklärungen für eine engere Kooperation mit Bundesländern abgeschlossen. So könne man die Sicherheit stärken und unnötige Doppelstrukturen verhindern.

Digitalisierung

Die Bonner Bürgermeisterin Angelica Maria Kappel, die selbst auch Informatikerin ist, nannte in ihrem Grußwort die Digitalisierung ein großes Wort, das auch von Politik und Verwaltung mit Inhalt gefüllt werden müsse. „Damit möglichst viele Leistungen online und in voll digitalisierten Prozessen angeboten werden können, ist in jedem Einzelfall der Wunsch nach Vereinfachung und Ressourcenersparnis mit den Sicherheitserfordernissen in Einklang zu bringen.“ Das sei längst nicht immer ohne Diskussion machbar, berichtete sie – ebenfalls eine große Herausforderung: „Die Bürger müssen die zu ihrem Schutz ergriffenen Sicherheitsmaßnahmen akzeptieren und sie müssen darauf vertrauen und darauf vertrauen können, dass mit einer neuen Lösung ihre Daten genauso sicher sind wie vorher auf Papier.“

Für den Bundesminister des Innern, für Bau und Heimat (BMI) trat der Parlamentarische Staatssekretär Prof. Dr. Günter Krings ans Rednerpult. Er unterstrich die gesamtgesellschaftliche Dimension der Digitalisierung, die nur gelingen könne, „wenn Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik gemeinsam an diesem Ziel arbeiten, gemeinsam an einem Strang ziehen – und am allerbesten auch noch in die gleiche Richtung“.

„Wir wollen Bürgerinnen und Bürger in die Lage versetzen, die Chancen der Digitalisierung voll auszuschöpfen, aber eben auch die damit verbundenen Risiken zu beherrschen. Hierfür planen wir mit dem IT-Sicherheitsgesetz 2.0 die Aufgaben des BSI um den Verbraucherschutz zu ergänzen.“ In diesem Zusammenhang soll auch ein einheitliches IT-Kennzeichen eingeführt werden, das Sicherheits-Funktionen vor allem im Verbrauchersegment zuverlässig sichtbar und nachvollziehbar macht, sodass Verbraucher ihre Kaufentscheidungen ohne eigene Expertise im Securitybereich treffen können. Herstellerversprechen und zusätzliche Informationen des BSI würden so künftig in „einer Art elektronischem Beipackzettel verständlich dargestellt“.

Anschließend werde auch über Haftungsfragen weiter nachzudenken sein, sagte Krings. Er persönlich glaube, dass „mehr Sicherheit letztlich nicht ohne das Verantwortungsbewusstsein der Marktteilnehmer zu haben sein wird und dass dieses Verantwortungsdenken eben nur durch ein entsprechendes Haftungsririko bei den Herstellern sichergestellt werden kann“.

Zur künstlichen Intelligenz (KI) berichtete der Staatssekretär: „Die Bundesregierung verfolgt das Ziel, die Potenziale dieser Technologie für die Gesellschaft nutzbar zu machen und dabei KI-Anwendungen sicher zu gestalten. Gleichzeitig wollen wir KI nutzen, um die allgemeine IT-Sicherheit zu stärken.“ Als Einsatzbeispiele nannte er unter anderem die Security-Evaluierung von IT-Produkten, Überwachung von Netzwerken und „Big Data“-Auswertungen in Sachen Sicherheit.

Krings plädierte für einen nüchternen Blick: „Die in KI-Systemen genutzten Entscheidungsverfahren sind oft deutlich schwerer zu analysieren und hinsichtlich der Ergebnisse weniger vorhersagbar als klassische Softwarelösungen. Das ist aber aus meiner Sicht noch kein Argument gegen die KI an sich, sondern Ansporn dafür, unser hohes IT-Know-how weiter auszubauen und gezielt auf eine verantwortliche Weise für KI-Systeme nutzbar zu machen.“

Natürlich ließen sich auch KI-Systeme missbrauchen – die Absicherung gegen Angriffe und Betrügereien durch manipulierte Daten sei daher ein wichtiger Baustein in der fortschreitenden Digitalisierung: „Die Bundesregierung sieht den Einsatz und das Zusammenspiel von maschinellem Lernen und KI als wichtigen Baustein der zukünftigen Sicherheitsarchitektur an. Wir streben daher eine Förderung öffentlicher Forschung ebenso wie den Aufbau tiefgehender Kompetenzen im Geschäftsbereich des BMI und insbesondere im BSI an“, schloss Krings.

Schulterschluss zum Datenschutz

Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) Ulrich Kelber stellte klar, dass sichere IT-Strukturen und Datenschutz eng zusammengehören. Das BSI und der BfDI hätten daher den gemeinsamen Gestaltungsauftrag, einen Imagewechsel zu bewirken und Sicherheit in die Köpfe der Menschen zu bringen sowie als Designvorgabe zu verankern. Nur wer seine Produkte „schnell und dreckig“ entwickele und erst ganz am Ende Datenschutz und IT-Sicherheit berücksichtige, mache diese zu Kostenfaktoren: „Wenn man das aber von vornherein als Qualitätsmerkmal begreifen würde und in seinen Entwicklungsprozess verankert, dann sind sie Innovationsmotor.“

In einer Welt, in der IT-Sicherheit und Datenschutz immer häufiger nachgefragt werden, entweder weil sich die Gesetzgebung ändert oder Bürger oder Unternehmen sie einfordern, profitiere, wer „glaubhaft Produkte und Services anbieten kann, die von einem Heimatmarkt stammen, in dem das schon seit vielen Jahren so ist“. Hier zeige sich ein „Wettbewerbsvorteil gegenüber denen, die das erst seit kurzer Zeit oder vielleicht nur mit groß angelegten PR-Aktionen machen“. Kelber wünschte sich von der deutschen Wirtschaft, „dass sie ähnliche Werbeaktionen für entsprechende Produkte betreibt wie amerikanische Unternehmen, bei denen dahinter relativ wenig steckt, und vielleicht den Jammer-Bot-Status über IT-Sicherheit und Datenschutz mal verlässt.“

Wo es immer schwieriger oder unmöglich wird, einzelne Produkte einzuschätzen, sei das grundsätzliche Vertrauen in Hersteller wichtig: „Daher glaube ich, dass ein IT-Sicherheits-Kennzeichen eine wichtige Rolle spielen wird … und würde mich freuen, wenn Fragestellungen von Verbraucher- und Datenschutz mit einfließen würden“, so Kelber weiter.

Im Hinblick auf KI verwies Kelber auf die Hambacher Erklärung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder vom April 2019. Diese Vorgaben umfassen etwa Fragen der Transparenz und Nachvollziehbarkeit, die Einhaltung von Zweckbindungen, den Grundsatz der Datenminimierung, die Vermeidung von Diskriminierungen und eine klare Zurechnung von Verantwortung. „Wir wollen, dass der Mensch Subjekt bleibt, dass er Überprüfungen verlangen kann, Entscheidungen überprüft werden können“, erklärte der BfDI. Es sei klar, dass KI-Systeme nicht unfehlbar sind, aber man sehe auch neue Möglichkeiten zur Wertschöpfung und für die Sicherheit, etwa bei der Detektion von Angriffen.

Foto 1

Arne Schönbohm (BSI): IT-Sicherheit muss zum neuen „Made in Germany“, einem Qualitätsmerkmal nachhaltiger Cybersicherheit werden.

Foto 2

Prof. Dr. Günter Krings (BMI): Das Verantwortungsbewusstsein aller Marktteilnehmer wird letztlich nur durch ein
entsprechendes Haftungsrisiko bei den Herstellern sicherzustellen sein.

Foto 3

Gruppenbild mit künstlicher Intelligenz: Der Roboter „Pepper“ hatte ein kurzes Gastspiel auf dem BSI-Kongress.

Künstliche Intelligenz

Die Keynote am zweiten Konferenztag hielt Dr. Stefan Mück (IBM). Beim derzeitigen großen Hype zur KI sei es leider üblich, „ordentlich über die Stränge zu hauen“ und etwa in Tageszeitungen die Gefährlichkeit der KI mit der von Atomwaffen zu vergleichen. Daher sei es wichtig, zunächst die Frage zu klären, was Intelligenz eigentlich ist: So, wie beim Menschen mehr zur Intelligenz gehört als das, was bei einem IQ-Test erfragt wird, ist auch bei KI nicht zuletzt das Vorhandensein von auswertbaren Daten – vergleichbar mit Sinneseindrücken – wesentlich, betonte Mück. Daher ist die Sensorik ein Kernthema bei der KI: „Das Spektrum unserer menschlichen Fähigkeiten wird erweitert, indem wir uns neue Sensorik schaffen“ – etwa, indem ein KI-gestütztes System vor einem Stauende hinter einer Kurve warnt.

Doch wie macht man aus bloßen Sensorinformationen etwas Sinnvolles? Das führe direkt zum Machine-Learning, bei dem KI-Software anhand von Daten lernt und ein Modell trainiert – bei später vorgelegten, neuen Daten liefert das System dann zurück, was es darin zu erkennen glaubt. Mück erklärte: „Es ist nicht alles deterministisch vorgegeben, sondern es gibt etwas, das ‚intelligent‘ aus den Daten herausgelesen wird.“

Oft treffe man jedoch auf eine falsche Wahrnehmung: „Die Computer sind doch jetzt selbstlernend – warum sollte man da noch Arbeit reinstecken müssen?“ Der selbstlernende Teil heutiger KI sei jedoch nur, dass man nicht einzeln vorgebe, wie genau etwa die Verbindungen und Schritte zwischen verschiedenen Hierarchiestufen in einem neuronalen Netzwerk aussehen, sondern: „Da ackert das System in vielen Iterationen – und damit es ackern kann, müssen wir ihm Beispieldaten geben.“ So trainiere eine KI etwa zur Unterscheidung zwischen gut- und bösartigen Fehlbildungen der Haut mithilfe einer großen Vielzahl von Fotos – zusammen mit den richtigen Einschätzungen (s. a. S. 70).

Angst mache vor allem eine „general AI“, die quasi universell einsetzbar wäre – doch die gibt es noch lange nicht: „Ein Computer, der trainiert ist, harmlose Leberflecke von Malignomen zu unterscheiden, kann noch keine Aussagen über Lungenkrebs treffen, Kinder erziehen oder ein autonomes Fahrzeug steuern. Der Mensch ist unglaublich vielfältig in seinen Fähigkeiten und das ist die KI im Moment noch nicht“, konstatierte Mück. Vielmehr hätten wir gerade erst die „narrow AI“ überwunden, die man für ein bestimmtes Problem trainieren muss – man sehe erste Beispiele, wo KI „etwas breiter“ aufgestellt ist und über verschiedene Domänen hinweg arbeiten oder etwas komplexere Aufgaben lösen kann.

Zum Einsatz von KI in der IT-Sicherheit erinnerte Mück an die Asymmetrie von Angriff (eine Lücke genügt) und Verteidigung (muss alle Lücken schließen): „Deshalb habe ich die Sorge, dass die KI anfangs für wesentlich mehr Ärger sorgen wird, als sie initial helfen kann, Probleme zu finden“, befürchtet er. Man brauche für einen KI-basierten Schutz viele Trainingsdaten, aber Angriffe sind gut getarnt und verändern sich ständig.

In der Podiumsdiskussion zum Thema KI ging es viel um das Vertrauen in die neue Technologie. Dr. Stefan Heumann von der Stiftung Neue Verantwortung, der auch Sachverständiger der KI-Enquete des Deutschen Bundestags ist, bedauerte: „Wenn man auf den breiteren öffentlichen Diskurs schaut, gibt es große Missverständnisse. Das liegt sicherlich an dem Begriff KI“, den man nun zwar nicht mehr loswerde, der aber klar die Assoziation einer dem Menschen ähnlichen Intelligenz wecke. „Dabei haben wir es – zumindest heute und in der näheren Zukunft – vielmehr mit maschinellem Lernen zu tun, einer Spezialdisziplin, die gut mit großen Datenmengen spezielle Probleme lösen kann, aber von menschlicher Intelligenz sehr weit entfernt ist.“

In Öffentlichkeit und allgemeinen Medien werde KI zudem sehr stark im Kontext von Robotik und Arbeit diskutiert, oft gehe es darum, „dass Menschen schon ersetzbar sind – und das ist im Moment überhaupt nicht der Fall.“ Die KI habe noch viele Kinderkrankheiten, müsse noch viel robuster werden und sei derzeit gerade in der Kombination mit dem Menschen interessant, erklärte Heumann. Wo jedoch die Befürchtung besteht, dass menschliches Miteinander durch Technik ersetzt wird, mag, wie im Fall von Pflegerobotern, zwar die Logik deren Einsatz zustimmen, für sich persönlich wolle man das aber nicht – so entstünden Widerstände und Abwehrreaktionen. Es sei daher eine gesellschaftliche Aufgabe, klarzumachen, dass es nicht Ziel ist, menschliche Interaktion durch Maschinen zu ersetzen, sondern Fachkräften mehr Zeit für Dinge zu geben, die eben nur ein Mensch (gut) machen kann. Politik und Management müssten klarstellen, dass „Rationalitäts- und Effizienzgewinne nicht dazu führen werden, dass wir Menschen überflüssig machen, sondern ihnen ein produktiveres Umfeld schaffen“, forderte Heumann.

Maximilian Heinemeyer (Darktrace) klagte: „Wir haben eine sehr binäre Diskussion in der Gesellschaft“ – oft gehe es bei KI scheinbar um ein Entweder-oder. Dabei nutzen wir nicht selten bereits in Ansätzen „enge“ KI-Systeme – beispielsweise Sprachassistenten oder Navigationssysteme. Und auch Angreifer arbeiten schon lange mit Formen der KI, um beispielsweise Captchas zu lösen, die als Anti-Spam-Maßnahme eingesetzt werden. „Wichtig ist, dass eine menschenzentrische KI im Vordergrund bleibt – dass es darum geht, wie der Mensch Daten nutzen und verarbeiten kann und nicht komplett außen vor bleibt und nicht versteht, was passiert“, unterstrich Heinemeyer.

Bei der Bewertung eines Einsatzes im IT-Sicherheitsumfeld zeigte er sich optimistischer als zuvor Mück: Zwar genüge eine einzelne Sicherheitslücke für einen Eindringling, doch in Zeiten von „Assume the Breach“ genüge Reinkommen ja nicht. Und innerhalb eines Unternehmensnetzes sieht Heinemeyer eine Chance für die KI in Form von Anomalieerkennung: „Hier haben wir die umgekehrte Situation: Der Angreifer muss nur einen Fehler machen …, um von der Technik als ‚ungewöhnlich‘ erkannt zu werden.“ Letztlich erwartet der Experte für die Zukunft ein Kopf-an-Kopf-Rennen von KI-Algorithmen auf Seiten der Angreifer und Verteidiger.

Vortragsfolien vieler Kongressbeiträge sowie eine Fotoauswahl sind über www.bsi.bund.de/sicherheitskongress verfügbar. Der 528-seitige Tagungsband zum 16. IT-Sicherheitskongress des BSI ist bei SecuMedia erschienen und über www.secumedia-shop.net sowie im Buchhandel für 67,70 € erhältlich (ISBN 978-3-922746-82-9).

Foto 4

Ulrich Kelber (BfDI): Der Mensch muss Subjekt bleiben, Entscheidungen überprüfen lassen können – dazu gehört auch die Nachvollziehbarkeit von KI-Systemen.

Foto 5

Dr. Stefan Mück (IBM): Die Asymmetrie von Angriff und Verteidigung gibt Anlass zur Sorge, dass die KI anfangs für wesentlich mehr Ärger sorgen wird, als sie initial helfen kann, Probleme zu finden.

Foto 6

In der KI-Session wurde häufig eine zu wenig differenzierte Diskussion des Themas in der breiten Öffentlichkeit beklagt. So etwa von Maximilian Heinemeyer (im Bild rechts): „Wir haben eine sehr binäre Diskussion in der Gesellschaft“.

Diesen Beitrag teilen: