Cyberkriminalität in der KI-Ära
In letzter Zeit haben generative Verfahren der künstlichen Intelligenz (KI) wie ChatGPT und DALL-E in vielen Bereichen unseres digitalen Lebens für große Unruhe gesorgt. Wie intensiv nutzen Cyberkriminelle heute schon KI für ihre Zwecke und was ist zukünftig auf der „dunklen Seite“ von solchen Systemen zu erwarten?
Laut einer Erhebung des Statistischen Bundesamts [1] nutzt etwa jedes achte Unternehmen in Deutschland bereits künstliche Intelligenz. Auch Cyberkriminelle haben sich diese Technologie schnell für ihre kriminellen Machenschaften zu eigen gemacht und setzen verschiedene Arten von KI ein (vgl. [2,3]). So haben Hacker* beispielsweise mit WormGPT ihre eigene generative KI entwickelt (https://flowgpt.com/p/wormgpt-v30). Außerdem dient generative KI (genAI) häufig Betrügern als Assistenzsystem, um Sprachbarrieren bei Textnachrichten und automatisierten Antworten zwischen Betrügern und ihren Zielpersonen auf WhatsApp und anderen Plattformen zu überwinden. Zudem setzen Cyberkriminelle generative KI ein, um gefälschte Selfie-Bilder zu erstellen, die in Unterhaltungen verschickt werden. Mittlerweile verwenden sie auch die generative KI-Stimmensynthese und nutzen diese beispielsweise in Telefonbetrügereien.
Die aktuelle Entwicklung in Sachen KI stellt künftig ein großes Potenzial für Cyberbetrüger dar, denn sobald es ein KI-System gibt, das vollständige, automatisierte Bedrohungen erzeugen kann, wird dieses auch zum Einsatz kommen. Die derzeit zu beobachtende Integration generativer KI-Elemente in klassische Betrügereien – etwa durch KI-generierte Texte oder Fotos, um Opfer anzulocken – bildet nur den Anfang der KI-Nutzung für missbräuchliche Ziele.
Cyberkriminelle noch unentschieden
Bis heute ist die Haltung der Cyberkriminellen allerdings noch recht indifferent und reicht von hoffnungsvoll bis regelrecht feindselig, wie unlängst eine breit angelegte Sophos-Untersuchung der Kommunikationsunterhaltungen in Cybercrime-Foren zeigt hat [4]. Einerseits teilen „KI-Early-Birds“ unter den Cyberkriminellen ihre Tools, auch wenn die Ergebnisse noch nicht sehr eindrucksvoll sind. Andererseits haben einige aber für sich entschieden, dass Large Language-Models (LLMs) weiterhin zu sehr in den Kinderschuhen stecken, um für erfolgreiche Angriffe zu taugen. Die meisten Beiträge in Darknet-Foren bezogen sich auf zum Verkauf stehende kompromittierte ChatGPT-Konten und „Jailbreak“-Möglichkeiten, also zur Umgehung der in LLMs integrierten Schutzmaßnahmen (vgl. [2]), sodass Cyberkriminelle die Tools für böswillige Zwecke missbrauchen können.
Das Forscherteam fand außerdem zehn ChatGPT-Anwendungen, von denen die Entwickler behaupteten, sie für Cyberangriffe und die Entwicklung von Malware verwenden zu können. Allerdings wurde die Effektivität solcher Tools von Teilen der Darknet-Gemeinde stark angezweifelt und zum Teil sogar als Versuch gewertet, mit nutzlosen Programmen zu betrügen. Zwar versuchen einige Cyberkriminelle mithilfe von LLMs Malware zu erstellen oder Tools anzugreifen, aber die Ergebnisse waren rudimentär und stießen bei anderen Foren-Benutzern oft auf Skepsis. Es gab sogar zahlreiche Posts über die möglichen negativen Auswirkungen von KI auf die Gesellschaft und die ethischen Implikationen ihres Einsatzes. Mit anderen Worten: Zumindest im Moment scheint es, dass Cyberkriminelle die gleichen Debatten in Sachen KI führen wie der Rest der Welt.
Vorhersagen für die Cybersicherheit
Obwohl wir uns noch am Anfang des KI-Zeitalters befinden, ist absehbar, dass künstliche Intelligenz in den Händen von Cyberkriminellen ein enorm wichtiges Thema für die Sicherheitsstrategien von Unternehmen werden wird. Nachfolgend sind drei Prognosen aufgeführt, wie sich KI als Werkzeug für Cyberkriminalität einsetzen lassen könnte und welche Sicherheitsmaßnahmen aus dieser Nutzung wahrscheinlich resultieren müssen.
Komplexere Nutzerauthentifizierung wird notwendig
Maschinen sind sehr gut darin, wie Menschen zu klingen, weshalb Unternehmen neue Authentifizierungsmöglichkeiten einführen müssen. Jede Kommunikation, die Zugang zu Unternehmensinformationen, Systemen oder monetären Elementen betrifft, erfordert zukünftig komplexere Formen der Nutzerauthentifizierung. Eine Möglichkeit wäre beispielsweise die Bestätigung per Telefonanruf – Unternehmen könnten auch ein geheimes Tagespasswort einsetzen, um sich gegenüber anderen Instanzen oder Individuen zu identifizieren.
Wichtig ist, dass die Methode nicht einfach von Angreifern genutzt werden kann, wenn diese Zugangsdaten kompromittiert haben. Da sich die KI-Technologie rasend schnell entwickelt und immer stärker verbreitet, müssen Authentifizierungsmethoden hier Schritt halten.
Legitime Nutzer verwässern die Sicherheitswarnungen
Viele Nutzer verwenden KI, um schnell berufliche oder werbliche Inhalte zu produzieren. Dies erschwert es Adressaten, KI-generierte kriminelle Inhalte zu identifizieren und/oder herauszufiltern, da ja längst nicht alle E-Mails, die KI-erzeugten Text enthalten, schädlich sind – ergo kann man nicht „einfach“ alle KI-generierten Nachrichten generell blockieren.
Anbieter von Sicherheitslösungen könnten als Gegenmaßnahme „Vertrauenspunkte“ oder andere Indikatoren entwickeln, um die Wahrscheinlichkeit zu beurteilen, dass eine Nachricht oder E-Mail zwar KI-generiert, aber dennoch vertrauenswürdig ist. Auch könnten sie KI-Modelle trainieren, um mit künstlicher Intelligenz erstellten Text zu erkennen und ein „Vorsicht“-Banner auf benutzerorientierten Systemen zu platzieren. In bestimmten Fällen könnte ein solches Verfahren auch Nachrichten aus der E-Mail-Inbox des Mitarbeiters herausfiltern.
KI-generierter Betrug wird interaktiver
Es ist zu erwarten, dass KI-Sprachprogramme in Zukunft noch stärker von Kriminellen interaktiv genutzt werden, um Phishing-E-Mails oder Einmalnachrichten zu produzieren. Betrüger könnten diese Technologie etwa einsetzen, um Individuen via Echtzeit-Chat zu manipulieren. Nachrichtendienste wie WhatsApp, Signal oder Telegram sind durchgängig verschlüsselt und können daher betrügerische oder KI-generierte Nachrichten in privaten Kanälen nicht filtern. Das könnte sie sehr attraktiv für Betrüger machen, die auf solchen Plattformen Opfern auflauern.
Eine solche Entwicklung könnte Organisationen dazu veranlassen, ihre Sicherheitslösungen zu rekonfigurieren – möglicherweise muss Filtertechnologie auf individuellen Mitarbeiter-Endgeräten zum Einsatz kommen. Bis dahin sollten Unternehmen und Organisationen allen Kommunikationen misstrauen.
Fazit
KI-Werkzeuge werfen wichtige Fragen für die Zukunft der Cybersicherheit auf. Es wird zukünftig immer schwieriger zu unterscheiden sein, was echt und was gefälscht ist – kommende Entwicklungen werden diese Problematik vermutlich verschärfen. Bei all diesem Risikopotenzial sollte jedem klar sein, dass KI-gesteuerte Sprach- und Inhaltsgeneratoren für die Bösen genauso verfügbar sind wie für die Guten.
Technologischer Fortschritt ist wie ein Flaschengeist: Man kann ihn nicht einfach wieder wegstecken, wenn er unangenehm wird. Die Verfügbarkeit von KI-Tools wie ChatGPT mit den Schutzmaßnahmen, die etwa OpenAI durchzusetzen versucht, wird jedoch wahrscheinlich nicht mehr Schaden als Nutzen anrichten. Auch wenn krimineller Missbrauch von KI unvermeidlich ist, wird das Gute, das aus einer verantwortungsvollen Nutzung solcher Werkzeuge entstehen kann, wahrscheinlich jeden Missbrauch bei Weitem überwiegen.
Michael Veit ist Security-Experte bei Sophos.
Literatur
[1] Statistisches Bundesamt, Etwa jedes achte Unternehmen nutzt künstliche Intelligenz, Pressemitteilung, November 2023, www.destatis.de/DE/Presse/Pressemitteilungen/2023/11/PD23_453_52911.html
[3] Matt Burgess, Here Come the AI Worms, März 2024, Wired, www.wired.com/story/here-come-the-ai-worms/
[4] Sophos X-Ops, Cybercriminals can’t agree on GPTs, Sophos News, November 2023, news.sophos.com/enus/2023/11/28/cybercriminals-cant-agree-on-gpts/