Love Scam: Künstliche Intelligenz und Chatbots als Täuschungswerkzeug

Verfasst von
Max Hortmann
02 Nov 2025
Lesezeit:
Diesen Beitrag teilen

Love Scam: Künstliche Intelligenz und Chatbots als Täuschungswerkzeug

Digitale Verführer: Wie KI und Chatbots Gefühle simulieren und Opfer täuschen.

Wenn die Maschine „Ich liebe dich“ sagt

Was früher ein einzelner Täter mit erfundenem Profil war, übernehmen heute Programme:
KI-gestützte Chatbots, Sprachgeneratoren und Deepfake-Avatare können in Echtzeit auf Gefühle reagieren.
Sie imitieren Empathie, Humor, Nähe – und schaffen dadurch eine Illusion von Verbundenheit, die für Opfer täuschend echt wirkt.

Viele Betroffene berichten, sie hätten geglaubt, „mit einem echten Menschen“ zu schreiben – bis sie erkannten, dass die gesamte Kommunikation automatisiert generiert war.
Damit verlagert sich Love Scam 2025 in eine neue Dimension: Gefühle werden synthetisch erzeugt.

Wie KI-Scammer Emotionen erzeugen

Die technischen Systeme hinter diesen Täuschungen nutzen mehrere Schichten von KI:

  1. Natural Language Processing (NLP)
    – Die KI analysiert, wie das Opfer schreibt, welche Wörter es häufig nutzt, wie schnell es reagiert, und spiegelt den Stil präzise zurück.
  2. Emotionale Profilierung
    – Aus den Chatverläufen werden psychologische Muster berechnet: Bedürfnisse, Sehnsucht, Unsicherheit.
    Daraus entsteht ein individueller „emotionaler Fingerabdruck“.
  3. Generative Text- und Sprachausgabe
    – Chatbots kombinieren reale Phrasen mit erfundenen Details, erzeugen romantische Sprachbilder, Audios oder Sprachnachrichten mit künstlicher Stimme.
  4. Adaptive Feedback-Schleifen
    – Die Systeme lernen ständig dazu: Jede Reaktion des Opfers wird bewertet und künftige Antworten werden emotional angepasst.

Das Ergebnis ist ein perfektes Echo menschlicher Zuneigung – nur ohne Mensch.

Warum diese Täuschung so glaubwürdig ist

Der Unterschied zum klassischen Love Scam liegt in der Permanenz und Perfektion der Kommunikation.
Ein Mensch kann schlafen, zweifeln, Fehler machen – ein Chatbot nicht.
Er antwortet in Sekunden, erinnert sich an jedes Detail und lobt, tröstet oder flirtet exakt im richtigen Moment.

Diese künstliche Beständigkeit verstärkt Bindung und Abhängigkeit.
Opfer fühlen sich verstanden, gesehen, emotional sicher – während sie tatsächlich mit einem Algorithmus interagieren.
Das macht die neue Form des Betrugs so gefährlich: Sie nutzt Emotion als Code.

KI, Love Scam, Chatbot, Täuschung, Manipulation, Gefühle, Technologie, Fake
KI, Love Scam, Chatbot, Täuschung,  Manipulation, Gefühle, Technologie, Fake

Der rechtliche Graubereich der KI-Täuschung

Juristisch bleibt der Kern unverändert:
Wer durch Täuschung über eine Identität oder Beziehung Geld erlangt, begeht Betrug gemäß § 263 StGB.
Neu ist jedoch die Frage, wer haftet, wenn kein individueller Täter erkennbar ist, sondern ein automatisiertes System eingesetzt wurde.

  • Betrug durch KI-Einsatz: Auch wenn der Chatbot den Kontakt führt, wird die Täuschung dem Menschen zugerechnet, der das System konfiguriert oder steuert.
  • Datenschutzrechtliche Dimension: Werden Chatprotokolle gespeichert oder weiterverarbeitet, greift die DSGVO – insbesondere Art. 6 und Art. 22 DSGVO (automatisierte Entscheidungsfindung).
  • KI-Regulierung: Nach dem kommenden EU AI Act gelten emotionserkennende Systeme im sozialen Kontext als „hochriskant“, insbesondere wenn sie gezielt manipulativ eingesetzt werden.

Damit kann ein Love Scam über KI nicht nur strafbar, sondern auch datenschutz- und aufsichtsrechtlich relevant sein.

Psychologische Hintergründe – warum KI den perfekten Betrüger spielt

KI-Täter nutzen Mechanismen, die in der Psychologie längst bekannt sind:

  • Reziprozität: Freundliche Worte erzeugen den Wunsch, sich zu revanchieren.
  • Soziale Bewährtheit: Das KI-Profil zeigt Freunde, Fotos, Likes – alles algorithmisch erstellt.
  • Foot-in-the-Door-Effekt: Erst kleine Bitten („Kannst du kurz etwas prüfen?“), dann finanzielle Hilfe.

KI optimiert diese Strategien, indem sie unendlich geduldig, lernfähig und emotional passgenau reagiert.
Der Betrug wird damit nicht nur effektiver, sondern auch schwerer zu erkennen – selbst für erfahrene Nutzerinnen und Nutzer.

Beweissicherung bei KI-basiertem Betrug

Für die Aufklärung gilt:
Auch bei KI-Chats entstehen Spuren – IP-Adressen, Zeitstempel, Sprach- und Bildmetadaten.
Entscheidend ist, Beweise frühzeitig zu sichern:

  • Screenshots, Audiofiles und Überweisungsbelege aufbewahren.
  • Plattform-IDs und KI-Tools dokumentieren, wenn bekannt.
  • Verdächtige Profile und Kommunikationskanäle an Anwalt oder Ermittlungsbehörden weitergeben.

Gerade bei grenzüberschreitenden Tätern ist es entscheidend, den technischen Ursprung zu identifizieren, nicht nur die Oberfläche der Kommunikation.

Wie Sie Täuschung durch Chatbots erkennen

  1. Perfekte Sprache ohne Pausen – keine Tippfehler, keine echten Verzögerungen.
  2. Emotionale Spiegelung – Ihr Tonfall wird ständig nachgeahmt.
  3. Unrealistische Aufmerksamkeit – rund-um-die-Uhr verfügbar, nie müde.
  4. Ausweichverhalten bei Videoanrufen oder konkreten Nachfragen.

Wenn Sie den Verdacht haben, dass hinter einer Online-Beziehung ein Programm steckt, sollten Sie nicht allein bleiben – rechtlicher Rat kann helfen, Zahlungen zu stoppen und Beweise zu sichern.

KI, Love Scam, Chatbot, Täuschung, Manipulation, Gefühle, Technologie, Fake
KI, Love Scam, Chatbot, Täuschung,  Manipulation, Gefühle, Technologie, Fake

Fazit: Die Liebe aus der Maschine

KI-Love-Scams sind die nächste Stufe emotionaler Täuschung.
Sie nutzen dieselben Gefühle, die echte Beziehungen tragen – nur ohne Verantwortung, Moral oder Gewissen.
Die Betroffenen trifft keine Schuld.
Wer Emotionen zeigt, ist menschlich – nicht naiv.

Doch der Schutz erfordert Aufklärung:
Nur wer versteht, wie KI manipuliert, kann ihre Strategien erkennen und stoppen.

Kostenlose Erstberatung & rechtliche Unterstützung

Wenn Sie vermuten, durch Chatbots oder KI-Profile getäuscht worden zu sein:
👉 Kostenloses Beratungsgespräch vereinbaren
Hortmann Law – Rechtsanwalt Max Nikolas Mischa Hortmann
Neue Rothofstraße 13–19, 60310 Frankfurt am Main

Interne Verlinkungen

➡️ Thematische Vertiefung (Love Scam & digitale Täuschung)

➡️ Querschnitt & rechtliche Schnittstellen (KI, Beweis, Plattformen)

Max Hortmann
Rechtsanwalt
,
Hortmann Law

Suchen Sie dringend diskrete, juristische Unterstüzung?

Wir helfen Ihnen gerne persönlich weiter – schildern Sie uns Ihr Anliegen und wir finden gemeinsam eine Lösung.

Verwandte Artikel

Das könnte Sie auch interessieren

Entdecken Sie weitere Beiträge zu aktuellen Themen rund um Digitalrecht, Cybercrime, Datenschutz, KI und Steuerrecht. Unsere verwandten Artikel geben Ihnen zusätzliche Einblicke und vertiefende Analysen.