Love Scam: Deepfake-Romantik – Virtuelle Gesichter, reale Täuschung

Verfasst von
Max Hortmann
02 Nov 2025
Lesezeit:
Diesen Beitrag teilen

Love Scam: Deepfake-Romantik – Virtuelle Gesichter, reale Täuschung

Deepfake-Profile als neue Betrugswaffe: Wie virtuelle Gesichter echte Gefühle und Geld rauben.

Wenn der Blick echt wirkt – aber niemand dahinter ist

Deepfake-Technologie hat den Love Scam grundlegend verändert.
Was früher gestohlene Fotos waren, sind heute vollständig künstlich erzeugte Gesichter, die in Echtzeit Emotionen simulieren.
Sie blinzeln, lächeln, reagieren – scheinbar wie echte Menschen.
Doch hinter diesen Bildern steht keine Person, sondern ein System aus Bilderkennung, Machine Learning und psychologischer Manipulation.

Für viele Betroffene ist das Schockierendste: Sie verliebten sich in jemanden, den es nie gab – nicht einmal als Dieb oder Täter, sondern als komplett virtuelle Figur.

Wie Deepfake-Romantik funktioniert

Täter verwenden spezialisierte Tools, um Gesichter und Bewegungen synthetisch zu erzeugen.
Dabei kommen meist drei Schritte zum Einsatz:

  1. Gesichtsgenerierung:
    Algorithmen wie StyleGAN oder Midjourney erstellen realistisch wirkende Gesichter, die keiner echten Person gehören – und daher schwer überprüfbar sind.
  2. Video-Animation:
    Über FaceSwap, Avatarify oder ähnliche Programme werden diese Gesichter in Videochats oder kurzen Clips eingesetzt.
    Lippenbewegungen und Mimik werden durch Stimmaufnahmen gesteuert.
  3. Emotionale Spiegelung:
    KI-Modelle lesen die Mimik des Opfers über Kamera oder Chat-Reaktionen aus und passen den Ausdruck des Avatars an.
    Das Opfer erlebt scheinbar „echte Emotionen“ – nur dass diese algorithmisch berechnet sind.

Die Täuschung ist damit nicht mehr nur sprachlich, sondern visuell und neuropsychologisch.

Warum Deepfakes stärker wirken als Worte

Menschen vertrauen Gesichtern.
Psychologisch betrachtet ist visuelle Kommunikation der stärkste Trigger für Empathie und Bindung.
Täter nutzen genau diesen Mechanismus:

  • Ein Gesicht, das „warm“ schaut,
  • eine Stimme, die „sicher“ klingt,
  • und eine Bewegung, die vertraut wirkt.

Selbst erfahrene Nutzerinnen und Nutzer erkennen Deepfakes kaum, weil das Gehirn auf visuelle Plausibilität reagiert, nicht auf technische Echtheit.
So wird aus einem programmierten Video ein „echter Mensch“ – und aus Vertrauen eine Täuschung mit realen Konsequenzen.

Identitätsdiebstahl, Romance Fraud, Gesichter, Technologie, Social Engineering
Deepfake, Love Scam, KI, Täuschung, Bilder,  Profil, Manipulation, Fake

Die zweite Opfergruppe: Gestohlene Gesichter

Während einige Opfer auf virtuelle Personen hereinfallen, werden andere selbst unfreiwillig Teil der Täuschung:
Ihre Fotos oder Videos werden in Deepfakes eingebaut, um andere zu täuschen.

Das bedeutet:

  • Ihre Identität wird benutzt, um andere emotional und finanziell auszunehmen.
  • Ihr Bild kursiert auf Dating-Plattformen, ohne dass sie es je dort hochgeladen haben.
  • Manche erfahren erst durch fremde Ermittlungen, dass „ihr Gesicht“ für Betrug genutzt wurde.

Juristisch ist das eine schwerwiegende Persönlichkeitsrechtsverletzung (§§ 22, 23 KUG; Art. 6, Art. 82 DSGVO).
Betroffene können Unterlassung, Schadensersatz und Löschung verlangen – auch gegen Plattformen.

Rechtliche Einordnung: Betrug, Identitätsdiebstahl und Bildrecht

Die Kombination aus Deepfake und Love Scam berührt mehrere Rechtsgebiete gleichzeitig:

  • § 263 StGB (Betrug):
    Täuschung über Identität zur Erlangung von Geld oder Vorteilen.
  • § 22 KUG (Recht am eigenen Bild):
    Veröffentlichung oder Verwendung fremder Gesichter ohne Einwilligung.
  • § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs):
    Wenn intime oder suggestive Bilder manipuliert oder weiterverbreitet werden.
  • Art. 82 DSGVO:
    Schadensersatz bei unrechtmäßiger Verarbeitung biometrischer Daten.
  • § 42 BDSG / KI-Verordnung (EU AI Act):
    Bei besonders risikoreichen Systemen kann der Plattformbetreiber haftbar gemacht werden, wenn er Deepfake-Inhalte nicht als solche kennzeichnet.

Diese Normen eröffnen Betroffenen reale Ansprüche – gegen Täter, Plattformen und ggf. Dienstleister, die Deepfake-Technologie anbieten.

Forensische Nachverfolgung: Wenn Bilder zu Beweisen werden

Deepfakes sind zwar schwer zu erkennen, aber nicht unsichtbar.
Spezialisierte Forensikprogramme können:

  • Pixelverteilungen analysieren,
  • Video-Metadaten rekonstruieren,
  • KI-generierte Artefakte identifizieren.

Unsere Kanzlei nutzt in Mandaten häufig technische Gutachten, um nachzuweisen, dass ein Profil nicht menschlich, sondern synthetisch war.
Dieser Nachweis ist zentral, um Schadensersatz oder Löschungsansprüche durchzusetzen.

Mandatssituierung – wie wir Betroffene unterstützen

Betroffene kommen meist mit zwei unterschiedlichen Ausgangssituationen:

  1. Ich wurde emotional und finanziell getäuscht.
    → Wir rekonstruieren Beweise, analysieren Chatverläufe, sichern IP-Spuren und prüfen Rückforderungen.
  2. Mein Gesicht wurde missbraucht.
    → Wir veranlassen sofortige Löschung, Abmahnung, Unterlassung und ggf. Schadensersatz gegen Plattformen oder Täter.

In beiden Fällen gilt: Der Einsatz künstlicher Gesichter entbindet Täter nicht von Verantwortung – und Plattformen nicht von Haftung.

Gesellschaftliche Dimension – Vertrauen in der digitalen Begegnung

Deepfake-Romantik ist mehr als ein technischer Trend.
Sie greift den Kern menschlicher Kommunikation an: den Blickkontakt.
Wenn der digitale Blick nicht mehr echt ist, wird Vertrauen selbst zur Angriffsfläche.
Deshalb braucht es klare Kennzeichnungspflichten für KI-generierte Profile – und eine juristische Kultur, die den Missbrauch von Gesichtern ernst nimmt.

Identitätsdiebstahl, Romance Fraud, Gesichter, Technologie, Social Engineering
Deepfake, Love Scam, KI, Täuschung, Bilder,  Profil, Manipulation, Fake

Fazit: Virtuelle Gesichter, reale Opfer

Deepfakes verwandeln Liebe in Illusion – und Täuschung in ein Massenphänomen.
Doch jedes manipulierte Bild hinterlässt Spuren, und jede Täuschung kann rechtlich verfolgt werden.
Wer Opfer wurde – ob emotional oder durch Identitätsmissbrauch – sollte die Kontrolle zurückholen.
Denn: Auch virtuelle Täuschung ist kein digitales Kavaliersdelikt, sondern ein realer Angriff auf Persönlichkeit und Würde.

Kostenlose Erstberatung & rechtliche Unterstützung

Wenn Sie Opfer eines Deepfake-Profils oder digitaler Täuschung geworden sind:
👉 Kostenloses Beratungsgespräch vereinbaren
Hortmann Law – Rechtsanwalt Max Nikolas Mischa Hortmann
Neue Rothofstraße 13–19, 60310 Frankfurt am Main

Interne Verlinkungen

➡️ Thematische Vertiefung (Love Scam & KI-Identität)

➡️ Querschnitt & juristische Schnittstellen (KI, Datenschutz, Beweisführung)

Max Hortmann
Rechtsanwalt
,
Hortmann Law

Suchen Sie dringend diskrete, juristische Unterstüzung?

Wir helfen Ihnen gerne persönlich weiter – schildern Sie uns Ihr Anliegen und wir finden gemeinsam eine Lösung.

Verwandte Artikel

Das könnte Sie auch interessieren

Entdecken Sie weitere Beiträge zu aktuellen Themen rund um Digitalrecht, Cybercrime, Datenschutz, KI und Steuerrecht. Unsere verwandten Artikel geben Ihnen zusätzliche Einblicke und vertiefende Analysen.