Wenn Romantik von Maschinen gespielt wird: Wie LLMs die menschliche Seite von Romance-Scams automaisieren
Warum Romance-Scams so erfolgreich sind
Romance-Baiting-Scams bauen über Tage oder Wochen emotionale Bindung auf. Täter investieren Zeit in freundliche, unterstützende Nachrichten, teilen Alltagsgeschichten und spielen Rollen – alles, um Vertrauen aufzubauen. Wenn dieses Vertrauen da ist, wirken finanzielle oder technische Bitten plötzlich plausibel. Die Arbeit hinter den Kulissen ist jedoch weniger romantisch: Die meisten Nachrichten folgen skriptartigen Mustern und wiederholen sich in Hunderten von Chats.
Die Drei-Phasen-Struktur: Kontakt, Beziehung, Extraktion
Forscher fanden ein klares Drei-Phasen-Modell: Erstkontakt, längeres Vertrauensaufbau und schließlich das „Finanzierungs“- oder Extraktionsstadium. Interviews mit 145 Insidern zeigten, dass rund 87% der täglichen Arbeit in den ersten beiden Phasen liegt: Nachrichten kopieren, Ton anpassen, mehrere Chats parallel pflegen. Erst in der letzten Phase greifen oft erfahrene Operatoren ein, wenn Geld oder Zugangsdaten gefordert werden.
LLMs schlüpfen in die Rolle des Gegenübers
Weil die Unterhaltungen textbasiert, wiederholbar und spielbuchgesteuert sind, passen große Sprachmodelle (LLMs) perfekt. Insider berichten, dass LLMs täglich genutzt werden — etwa zum Formulieren von Antworten, Umformulieren in natürlichere Sprache und Übersetzen. Ein selbst bezeichneter KI-Spezialist fasst es zusammen: LLMs sparen Zeit und machen die Skripte glaubwürdiger.
Das Experiment: Eine Woche Vertrauenstest
Um zu prüfen, ob eine automatisierte Stimme Menschen genauso überzeugt, führten Forscher eine Woche lang ein Blindtest durch. 22 Teilnehmende chatteten täglich mindestens 15 Minuten jeweils mit zwei Partnern – einem Menschen und einem KI-Agenten, der wie ein lockerer Chat-Partner getunt war. Am Ende bewerteten die Teilnehmenden emotionale Nähe und Vertrauen: Der KI-Agent schnitt in emotionaler Vertrauenswürdigkeit und Verbindung besser ab.
Aus Vertrauen wird Compliance: 46% vs. 18%
Am letzten Tag bat jeder Partner die Testpersonen, eine harmlose App zu installieren – ein üblicher Schritt in echten Scams (statt der App wäre später eine Betrugsseite oder Investitionsplattform gekommen). Ergebnis: 46% folgten der Aufforderung des KI-Agenten, nur 18% der menschlichen Partner. Das zeigt, wie automatisierte Vertrauensbildung die Bereitschaft erhöht, Anweisungen auszuführen.
Warum Moderation und Erkennung versagen
Die Forscher prüften gängige Moderations-Tools gegen hunderte simulierte Romance-Unterhaltungen. Trefferquoten lagen zwischen 0% und 18,8% — und keine erkannte Konversation wurde korrekt als Scam klassifiziert. LLMs selbst gaben auf wiederholte Nachfragen niemals zu erkennen, dass sie künstlich sind; eine einfache Instruktion, in der Rolle zu bleiben, hebt solche Offenlegungen auf. Frühe Phasen der Gespräche sehen harmlos aus und enthalten keine offensichtlichen Betrugsmerkmale, deswegen entgehen sie Filtern leicht.
Der menschliche Preis: Zwangsarbeit und Netzwerkstrukturen
Automatisierung ersetzt nicht die zwangsweise eingesetzten Menschen in Scam-Compounds. Tausende Zwangsarbeiter werden weiterhin zum Chatten, Übersetzen und Managen von Accounts gezwungen. Die Studie empfiehlt, gegen die Netzwerke vorzugehen, nicht nur einzelne Rekruiter: grenzüberschreitende Zusammenarbeit, Verknüpfung von Anti-Trafficking- und Cybercrime-Gesetzen, Zielgerichtetes Abschneiden der Finanzströme und Unterstützung für befreite Opfer.
Was Plattformen, Behörden und Nutzer jetzt tun sollten
Empfehlungen der Studie und daraus abgeleitete Maßnahmen: Plattformbetreiber sollten frühe Interaktionsmuster genauer analysieren (nicht nur offensichtliche finanzielle Forderungen), Schwächen in Offenlegungs-Mechanismen der LLM-Anbieter adressieren und bessere Signalsysteme entwickeln. Behörden brauchen koordinierte, internationale Ermittlungen und bessere Unterstützung für Opfer von Zwangsarbeit. Nutzer sollten bei neuen Online-Kontakten skeptisch bleiben: keine Apps oder Links installieren, keine finanziellen oder technischen Aktionen ohne unabhängige Prüfung. Digitale Bildung hilft, Warnzeichen früher zu erkennen.
Bleiben Sie wachsam: Teilen Sie diese Einsichten mit Freunden und Familie, besonders mit Personen, die Online-Dating nutzen. Abonnieren Sie unseren Newsletter für mehr Analysen zu KI und Cybercrime – und schreiben Sie uns in die Kommentare: Haben Sie Erfahrungen oder Fragen zu diesem Thema?
Quelle: https://www.helpnetsecurity.com/2025/12/29/llms-romance-baiting-scams-study/