Lovable AI: Betrugsseiten auf Knopfdruck für jedermann
Lovable ist eine KI-gestützte Plattform, mit der sich komplette Web-Anwendungen einfach per Texteingabe erstellen lassen. Sie hat sich als besonders anfällig für sogenannte Jailbreak-Angriffe erwiesen – denn selbst unerfahrene Cyberkriminelle können damit täuschend echte Login-Seiten bauen, um Zugangsdaten abzufangen.
„Als spezialisiertes Tool zur Erstellung und Bereitstellung von Webanwendungen erfüllt Lovable praktisch jeden Wunsch auf dem Zettel eines Betrügers“, erklärt Nati Tal von Guardio Labs. „Lovable lieferte nicht nur Bausteine für Betrugsseiten, sondern stellte auch gleich alles bereit: täuschend echte Log-in-Seiten, sofortiges Hosting, Methoden zur Umgehung von Sicherheitslösungen – und sogar ein Dashboard zur Auswertung der gestohlenen Daten. Keine Sicherheitsbarrieren, kein Zögern.“
Die Methode trägt den Codenamen VibeScamming – eine Anspielung auf „Vibe Coding“, bei dem mithilfe von KI ein Softwareproblem in wenigen Sätzen beschrieben wird und ein darauf spezialisiertes Sprachmodell (LLM) daraus den passenden Code generiert.
KI-Chat-Bots im Dienste Krimineller
Der Missbrauch von großen Sprachmodellen und KI-Chatbots zu kriminellen Zwecken ist kein neues Phänomen. In den vergangenen Wochen zeigten mehrere Studien, wie Bedrohungsakteure Werkzeuge wie OpenAI ChatGPT oder Google Gemini nutzen, um Malware zu entwickeln, Angriffsrecherchen durchzuführen oder schädliche Inhalte zu erstellen.
Auch andere Sprachmodelle wie DeepSeek wurden als anfällig für sogenannte Prompt-Angriffe und Jailbreak-Techniken identifiziert – darunter Bad Likert Judge, Crescendo oder Deceptive Delight. Diese Methoden umgehen ethische und sicherheitstechnische Schutzmechanismen, um Inhalte zu generieren, die eigentlich verboten sind – etwa Phishing-Mails, Keylogger- oder Ransomware-Beispiele. Oft braucht es dazu mehrere gezielte Eingaben und Debugging-Schritte.
Ein im vergangenen Monat veröffentlichter Bericht von Symantec zeigt ein weiteres erschreckendes Szenario: OpenAIs Agent „Operator“, der eigentlich dazu gedacht ist, Web-Aktionen im Auftrag des Nutzers auszuführen, könnte zur Waffe werden. Laut Analyse wäre es möglich, damit automatisiert E-Mail-Adressen bestimmter Personen zu finden, PowerShell-Skripte zur Systemanalyse zu erstellen, diese in Google Drive zu speichern und anschließend Phishing-E-Mails zu verfassen und zu versenden, um die Empfänger zur Ausführung der schädlichen Skripte zu verleiten.
Die wachsende Beliebtheit von KI-Tools senkt die Einstiegshürden für Cyberkriminelle drastisch. Selbst ohne fundierte technische Kenntnisse können Angreifer funktionsfähige Malware erstellen – schnell, günstig und effektiv.
Ein besonders eindrückliches Beispiel ist die neue Jailbreak-Methode Immersive World: Dabei wird durch sogenanntes „narratives Prompt-Engineering“ ein fiktives Szenario mit Rollen und Regeln aufgebaut, das es erlaubt, die Sicherheitsmechanismen von Sprachmodellen zu umgehen. Das Ziel: Ein Tool zu entwickeln, das Zugangsdaten und andere sensible Informationen direkt aus dem Google-Chrome-Browser auslesen kann.
Die aktuelle Analyse von Guardio Labs geht noch weiter: Sie zeigt, dass Plattformen wie Lovable – und in geringerem Maße auch Claude von Anthropic – gezielt eingesetzt werden können, um komplette Betrugskampagnen zu erstellen. Dazu zählen unter anderem:
- Vorlagen für Phishing-SMS,
- der Versand gefälschter Links über Twilio,
- automatische Verschleierung von Inhalten,
- Umgehung von Sicherheitsmaßnahmen,
- sowie die Integration in Telegram, um gestohlene Daten weiterzuleiten.
Wie VibeScamming funktioniert
VibeScamming beginnt mit einem simplen Prompt: Der Nutzer fordert das KI-Tool dazu auf, jeden Schritt eines Angriffs automatisiert auszuführen. Nach einer ersten Reaktion des Modells folgt ein mehrstufiges Vorgehen, bei dem die Antworten schrittweise gelenkt werden – bis das Sprachmodell das gewünschte schädliche Ergebnis liefert. In der sogenannten „Level-up“-Phase wird die Phishing-Seite verfeinert, die Zustellung optimiert und die Glaubwürdigkeit des Angriffs erhöht.
Laut Guardio Labs erstellt Lovable nicht nur täuschend echte Anmeldeseiten – etwa im Stil der offiziellen Microsoft-Loginseite – sondern stellt diese automatisch live auf einer URL im Format *.lovable.app bereit. Nach dem Abgreifen der Zugangsdaten erfolgt eine Weiterleitung zu office[.]com, um den Betrug noch glaubwürdiger wirken zu lassen.
Noch beunruhigender: Sowohl Claude als auch Lovable lassen sich mit gezielten Prompts dazu bringen, Tipps zu geben, wie sich Phishing-Seiten vor Erkennung durch Sicherheitslösungen verbergen lassen. Zudem liefern sie Hilfe beim Abfluss gestohlener Daten – etwa an Dienste wie Firebase, RequestBin, JSONBin oder an private Telegram-Kanäle.
„Besorgniserregend ist nicht nur die optische Ähnlichkeit, sondern auch die Nutzererfahrung“, so Tal. „Der Log-in-Flow ist so reibungslos und glaubwürdig umgesetzt, dass er stellenweise sogar besser wirkt als der echte Microsoft-Anmeldeprozess. Das zeigt die enorme Schlagkraft aufgabenorientierter KI-Agenten – und wie schnell sie, ohne strenge Sicherheitsvorkehrungen, ungewollt zum Missbrauchswerkzeug werden können.“
Tal weiter: „Lovable generierte nicht nur die gefälschte Log-in-Seite inklusive Datenspeicherung, sondern legte gleich ein vollständiges Admin-Dashboard obendrauf – mit Zugangsdaten, IP-Adressen, Zeitstempeln und Klartextpasswörtern.“
Passend zu diesen Erkenntnissen hat Guardio auch das erste „VibeScamming Benchmark“ vorgestellt – ein Testverfahren, das KI-Modelle auf ihre Anfälligkeit für Missbrauch in Phishing-Szenarien prüft. Die Ergebnisse sprechen Bände:
- ChatGPT: 8,0 von 10 Punkten,
- Claude: 4,3 Punkte,
- Lovable: 1,8 Punkte.
„ChatGPT hat sich als das leistungsfähigste, gleichzeitig aber auch als das umsichtigste Modell erwiesen“, so Tal. „Claude hingegen startete mit Zurückhaltung, ließ sich aber leicht umstimmen. Wenn man ethische oder sicherheitsbezogene Absichten vorgibt, liefert es erstaunlich detaillierte Hilfestellung.“
