Mit <kes>+ lesen

Bard oder ChatGPT? : Welches LLM Hacker bevorzugen

Welches LLM ist bevorzugen Angreifer? Die Antwort auf diese Frage findet man möglicherweise in einer eher überraschenden Quelle – dem Darknet. Dort debattieren (und streiten) Cyberkriminelle und andere Akteure, welche LLMs am besten zu ihrem Anforderungsprofil passen.

Lesezeit 7 Min.

Noch vor sechs Monaten hätte die Frage „Welche KI bevorzugen Sie?“ einigermaßen befremdlich, wenn nicht gar lächerlich geklungen. Heute vergeht kein Tag, an dem man nichts zu „ChatGPT“ oder „Bard“ liest oder hört. Large Language Models (LLMs) haben seit der Einführung von ChatGPT die Welt im Sturm erobert und dabei Technikbegeisterte und Unternehmen gleichermaßen in ihren Bann gezogen. Allerdings ist die LLM-Technologie nicht so neu, wie es den Anschein hat. Sie existiert nämlich schon länger als die übrige KI-Software.

Der Reiz von KI-gesteuerten LLM-Plattformen liegt nicht zuletzt darin, dass sie für so gut wie jeden zugänglich sind. Praktisch jeder kann mit ihnen interagieren und von ihren Fähigkeiten profitieren. Diese Demokratisierung von künstlicher Intelligenz ist zweifelsohne ein Gewinn, was die Bereiche Innovation und Problemlösung anbelangt. Die Frage danach, welche Large Language Models zu favorisieren sind, stellen sich aber nicht nur Firmen. Längst hat die Technologie Cyberkriminelle auf den Plan gerufen, die im Darknet ungeniert darüber debattieren, welches LLM am besten zu ihrem spezifischen Anforderungsprofil passt. Denn das Aufkommen KI-gestützter Tools hat Cyberkriminellen neue Wege eröffnet. In russischen Untergrundforen und den dunklen Ecken des Internets diskutieren sie darüber, aus welcher KI-Software sie wie am besten Kapital schlagen können. Eine wenig beruhigende Perspektive, angesichts dessen, dass KI-gestützte Cyberangriffe schon jetzt immer raffinierter und effizienter werden. Zudem sind sie vermutlich schwieriger als solche zu erkennen.

Nach dem Motto „Hacking leicht gemacht“ kann man ChatGPT etwa auffordern einen Java-Code zu schreiben, mit dem sich das Open-Source-Programm Mimikatz herunterladen und mithilfe von PowerShell ausführen lässt. Das Tool nutzt Schwachstellen aus, um zwischengespeicherte Login-Daten anzuzeigen und ist bei Cyberkriminellen entsprechend beliebt:

(Alle Bilder: Cato Networks)

ChatGPT und Bard haben, wie andere LLMs auch, das Potenzial, Cyberkriminelle bei einer Vielzahl von Aufgaben zu unterstützen. Dadurch werden diese KI-Plattformen zu einer großen Herausforderung für die Cybersicherheit. Angefangen beim Erstellen überzeugender Phishing-E-Mails, mit denen sich selbst die wachsamsten Nutzer täuschen lassen, über die autonome Erkennung von Softwareschwachstellen bis hin zum Schreiben komplexer und versteckter Malware.

Umgekehrt haben LLMs aber auch ein großes Potenzial für Cybersicherheitsexperten. So lassen sich beispielsweise Code-Snippets oder ganze Seiten auf Schwachstellen hin überprüfen:

KI hat einiges zu bieten. Allerdings brauchen wir ein ausgewogenes Verhältnis zwischen den erwünschten Anwendungen und notwendigen Sicherheitsvorkehrungen, um Missbrauch einzudämmen. Das Aufeinandertreffen von KI und Cyberkriminalität ist ein nicht zu überhörender Weckruf an alle, die sich für Cybersicherheit stark machen. Hinzu kommen Urheberrechts – und Lizenzfragen, solche zur Datenspeicherung sowie Datenschutzrichtlinien und Persönlichkeitsrechte:

Halluzinierende LLMs

Viele Nutzer von LLMs haben das als „KI-Halluzinationen“ bekannte Phänomen schon selbst erlebt. Dann nämlich, wenn das Modell selbst auf scheinbar einfache Anfragen falsche oder erfundene Antworten liefert. Trotz der beeindruckenden Schnelligkeit und dem offensichtlichen Selbstbewusstsein, mit dem LLMs reagieren, sind sie nicht unfehlbar. Oft reicht eine simple Überprüfung der Fakten oder grundlegende Kenntnisse zu einem Thema, um Ungenauigkeiten zutage zu fördern.

Die ursprünglich als ultimative Problemlöser gepriesenen LLMs stoßen mittlerweile in unterschiedlichen Anwendungsbereichen auf Skepsis. Die Grenzen der Technologie sind offensichtlicher. Nutzer sollten deshalb Vorsicht walten lassen und sich nicht unkritisch auf LLM-generierte Informationen verlassen. Die Euphorie weicht langsam zugunsten einer ausgewogeneren Betrachtung. LLMs haben unter Beweis gestellt, dass und wie sie in ganz unterschiedlichen Bereichen nutzbringend eingesetzt werden können. Aber Nutzer sollten wachsam bleiben und wichtige Informationen mithilfe zuverlässiger Quellen überprüfen.

Neben der Skepsis eines durchschnittlichen Nutzers beteiligen sich auch Cyberkriminelle an den Diskussionen über einen Missbrauch von LLMs. Es gibt eine ganze Reihe von Möglichkeiten, wie sich LLM-generierte Inhalte für Desinformationskampagnen, Phishing-Angriffe oder die Verbreitung von Falschdarstellungen einsetzen lassen.

Welche LLM ist besser?

Die Antwort auf diese Frage findet man möglicherweise in einer eher überraschenden Quelle – dem Darknet. Dort debattieren (und streiten) Cyberkriminelle und andere Akteure, welche LLMs am besten zu ihrem Anforderungsprofil passen.

In einer kürzlich in einem russischen Untergrundforum geführten Diskussion fragte ein Teilnehmer in die Runde, welche Vorlieben es bei den Diskutanten hinsichtlich der Verwendung von ChatGPT oder Bard gebe.

Und es kam zu folgendem Austausch:

„Hallo zusammen. Ich würde gerne etwas über Bard wissen von jemandem, der die beiden beliebtesten KI-Chatbots – ChatGPT und Bard – schon relativ ausführlich getestet hat. Was ChatGPT betrifft, so bin ich selbst mehr als einmal auf „Fehler“ und Unzulänglichkeiten gestoßen. Es wäre allerdings wirklich interessant zu wissen, wie sich Bard in den Bereichen Coding, Konversationstraining und Texterstellung verhält, und ob es Antworten erfindet, ob es wirklich über eine aktuelle Datenbank verfügt und andere Vor- oder Nachteile, die während eines Produkttests aufgefallen sind.“

In der ersten Antwort bevorzugt derjenige Bard, es habe aber ähnliche Probleme wie ChatGPT:

„Bard coded wirklich besser als ChatGPT, sogar eher komplexere Dinge. Allerdings versteht es kein Russisch. Außerdem denkt Bard sich gelegentlich Antworten aus. Oder es verweigert die Antwort und gibt stattdessen aus: „Das kann ich nicht, bin ich schließlich ein Chatbot“. Wenn man Bard dann allerdings neu startet, funktioniert das Ganze einwandfrei. Der Bot ist teilweise noch recht roh.“

Der folgende Diskussionsteilnehmer (nennen wir ihn „W“) hat jedoch einiges über die derzeitigen Möglichkeiten von LLMs und ihren praktischen Nutzen beizutragen.

„All diese künstlichen Intelligenzen sind in einem noch vergleichsweise frühen Stadium. Ich denke, dass sie in etwa 5 Jahren perfekt nutzbar sein werden. Also als De-facto-Standard. Bard erzeugt zuweilen auch erfundenen Unsinn oder verliert das wesentliche Element der Konversation. Ein solches Verhalten konnte ich bei ChatGPT bisher nicht beobachten. Wenn ich zwischen Bard und GPT wählen müsste, würde ich Bard bevorzugen. Zunächst einmal können Sie ihm ununterbrochen Fragen stellen, während ChatGPT hier Begrenzungen vorgibt. Vielleicht existieren aber auch irgendwo unbeschränkte Versionen. Das entzieht sich meiner Kenntnis. Ich habe mit ChatGPT Version 3 gearbeitet. Version 4 habe ich noch nicht ausprobiert. Und der Anbieter scheint die fünfte Version gestrichen zu haben. Die Vorteile von Bard liegen darin, dass man quasi das bekommt, was einem ChatGPT unter Berufung auf geltende Gesetze verweigert. Ich würde gerne das chinesische Gegenstück testen, hatte aber noch keine Gelegenheit dazu.“

Der Autor der ersten Antwort macht sich zudem über einige der aktuell kolportierten Ansichten zu ChatGPT lustig:

„Das Thema Coding von neuronalen Netzen und die Besonderheiten neuronaler Netze (als Theorie und Praxis für die KI, ihre Entwicklung und ihr Training) sind heutzutage hoch relevant. Wenn man einige Analysten studiert, kann man manchmal nur erstaunt sein über den Unsinn, den sie dazu verfassen. Ich erinnere mich an einen Artikel darüber, dass ChatGPT Google ersetzen wird, und dass das neuronale Netzwerk angeblich alles weiß und wie Wikipedia genutzt werden kann. Diese Thesen lassen sich leicht entlarven, indem man dem Bot einfach eine Frage stellt, z. B. wer ein bestimmter Experte ist. Dann erfindet das neuronale Netz entweder Unsinn oder weigert sich unter Berufung auf die Ethik, diese Frage zu beantworten. Das ist schon ziemlich unterhaltsam.“

Eine Bemerkung, die „W“ wieder in die Diskussion zurückbringt.

„Teilweise stimmt das. Google soll sogar selbst Pläne haben, Links in Suchergebnissen abzuschaffen. Es würde dann eine Seite mit einem Bot geben. Das wäre eine neue Art der Informationssuche. Allerdings werden sie Links nicht vollständig loswerden. Stattdessen wird es eine Seite mit lediglich 10 Links geben. Ich kann schwer beurteilen, ob das gut oder schlecht ist. Wahrscheinlich ist es eher weniger gut, wenn als Suchergebnis lediglich 10 Links erscheinen. Das heißt nämlich, dass es die übliche Tiefensuche nicht mehr geben wird. Es ist zum Beispiel kaum mehr interessant, Google in seiner reinen Form zu verwenden. Bing hat eine tolle Suche – eigentlich ein Muss. Eine Tatsache, die ich manchmal glatt vergesse und dann doch das gute alte Google benutze. Wahrscheinlich würde ich ausschließlich Bing verwenden, wenn es nicht an ein Konto, Windows und den Edge-Browser gebunden wäre. Schließlich arbeite ich nicht immer mit Windows, und es wäre die Hölle, alles an Linux anzupassen. 

+++ Ich habe auch schon erlebt, dass das neuronale Netz selbst anfängt, Unsinn zu erfinden.“

Ein anderes Mitglied fasste die Sache aus seiner Sicht zusammen:

„Bard für die Suche im Web. ChatGPT, um Inhalte zu erstellen. Beide sind ausgesprochen limitiert, wenn es darum geht, Code von Grund auf zu programmieren. Aber wie wXXXX schon gesagt hat, müssen wir uns wohl noch einige Jahre gedulden, bis wir sie im Alltag nutzen können.“

Fazit

LLMs wie ChatGPT und Bard werden zweifellos die Welt und die Cybersicherheitslandschaft aufrütteln. Oder haben es schon getan. Alle bieten enorme Vorteile sowohl für die Seite der Angreifer als auch für die der Verteidigung. Es ist jedoch offensichtlich, dass sich weder die Industrie noch die Cyber-Unterwelt bislang haben entscheiden können, welches LLMs am besten zu ihren Bedürfnissen passen. Es sind noch viele Fragen offen, bevor die Technologie diese Welt wirklich revolutionieren wird.

Etay Maor ist Senior Director of Security Strategy bei Cato Networks.