AI Act Anwalt zu manipulativer KI: Krypto Betrug, Love Scam, Deepfakes und verbotene Täuschung

Verfasst von
Max Hortmann
03 Apr 2026
Lesezeit:
Diesen Beitrag teilen
Juristische Expertise
  • Cybercrime & Krypto-Betrug
  • AI & Zukunftsrecht
  • Steuerrecht & Steuerstrafrecht
  • Gesellschaftsrecht, Immobilienrecht & Zivilrecht
  • Datenschutz & Digitalrecht
Wir melden uns in der Regel innerhalb von 24 Stunden.

AI Act Anwalt – Manipulative KI bei Krypto-Betrug, Love Scam und Deepfakes

Manipulative KI bei Krypto-Betrug, Love Scam und Deepfakes – Anwalt erklärt, wann KI-gestützte Täuschung unter den AI Act fällt und warum gerade emotionale Einflussnahme regulatorisch besonders brisant ist.

Über den Autor

Max Hortmann ist Rechtsanwalt sowie Autor für juris, jurisPR-ITR und AZO.
Er publiziert regelmäßig zu Krypto-Betrug, digitaler Forensik, Bankhaftung und Plattformverantwortlichkeit.

In seiner anwaltlichen Praxis vertritt er Mandanten, die Opfer komplexer Online-Betrugsstrukturen geworden sind – insbesondere bei Fake-Broker-Systemen, Wallet-Angriffen und international verschleierten Geldflüssen.

Er trat unter anderem als Experte in BR24, Business Insider und WirtschaftsWoche auf und arbeitet derzeit an einem juristischen Handbuch zum Cybercrime-Recht.

LinkedIn-Profil

Weitere Einblicke in aktuelle Fälle, rechtliche Entwicklungen und forensische Analysen im Bereich Krypto-Betrug finden Sie auf meinem LinkedIn-Profil.

Einleitung: Wenn Täuschung nicht mehr nur menschlich, sondern technisch skaliert wird

Digitale Betrugsmodelle haben sich in den letzten Jahren erheblich professionalisiert. Das betrifft nicht nur Plattformdesign, Zahlungswege und internationale Verschleierung, sondern vor allem die Art, wie Opfer angesprochen, gebunden und manipuliert werden. Gerade im Bereich Love Scam, Romance Scam und Krypto-Betrug tritt zunehmend ein Phänomen in den Vordergrund, das rechtlich weit über klassische Online-Täuschung hinausgeht: der Einsatz manipulativer künstlicher Intelligenz.

Was früher auf manuelle Kommunikation, falsche Profile und zeitaufwendige Vertrauensbildung angewiesen war, lässt sich heute technisch skalieren. Chatbots können rund um die Uhr reagieren. Generative Systeme können glaubhafte Nachrichten, Bilder und ganze Kommunikationsmuster erzeugen. Deepfakes können Identitäten stützen, Nähe simulieren und Widerstände abbauen. Synthetische Stimmen können Vertrauen erzeugen, wo echte Beziehung nie bestanden hat.

Genau an dieser Stelle wird der AI Act praktisch relevant. Denn die Verordnung reagiert gerade auf KI-Systeme, die Verhalten gezielt beeinflussen oder schutzbedürftige Personen manipulativ in Entscheidungen hineinführen. Im Bereich digitaler Betrugsstrukturen ist das kein theoretisches Risiko, sondern eine reale Entwicklung.

Wenn Sie von einem Love Scam, Deepfake-Betrug oder KI-gestützten Krypto-Betrug betroffen sind und prüfen möchten, ob neben dem klassischen Betrugsrecht auch verbotene KI-Praktiken eine Rolle spielen, erreichen Sie mich direkt unter 0160 9955 5525 oder über das Kontaktformular: hortmannlaw.com/contact

Der rechtliche Kern: Manipulative KI ist mehr als bloße technische Unterstützung

Nicht jede KI-gestützte Kommunikation ist automatisch verboten. Der entscheidende Punkt liegt in der Art der Einflussnahme. Der AI Act reagiert gerade auf Systeme, die menschliches Verhalten gezielt in eine Richtung lenken sollen, die ohne diese technische Einwirkung so nicht erfolgt wäre und die zu einem erheblichen Schaden führt oder führen kann.

Im Betrugskontext ist genau das hochrelevant. Denn Love Scam und Krypto-Betrug beruhen regelmäßig nicht auf einem einzelnen falschen Satz, sondern auf einer künstlich erzeugten Vertrauensbeziehung. Diese Beziehung wird in vielen Fällen systematisch aufgebaut: emotional, wiederholend, psychologisch abgestimmt und zunehmend datenbasiert. Wenn dafür KI eingesetzt wird, ist die technische Komponente nicht bloß Kommunikationshilfe, sondern Teil der eigentlichen Manipulationsstruktur.

Rechtlich ist das deshalb bedeutsam, weil sich hier der Übergang von gewöhnlicher Täuschung zu unionsrechtlich besonders problematischen KI-Praktiken vollziehen kann. Der Fokus liegt also nicht auf der bloßen Existenz eines Tools, sondern auf seiner Funktion als Verstärker oder Träger manipulativer Einflussnahme.

Warum Love Scam und Deepfakes besonders eng mit manipulativer KI verknüpft sind

Love Scam ist schon ohne KI ein Delikt, das stark auf psychologische Steuerung setzt. Täter täuschen emotionale Nähe, zeitliche Exklusivität, wirtschaftliche Notsituationen oder gemeinsame Zukunftspläne vor. Die eigentliche Schädigung entsteht regelmäßig nicht spontan, sondern durch eine schrittweise Umlenkung von Vertrauen in Vermögensverfügungen.

Deepfakes und generative Systeme verschärfen genau diesen Mechanismus. Sie erlauben es, die Glaubwürdigkeit des Täters künstlich zu erhöhen. Ein Profilbild wird nicht mehr gestohlen, sondern synthetisch erzeugt. Ein Videoanruf erscheint authentisch, obwohl die dargestellte Person nie existiert oder jedenfalls nicht kommuniziert. Sprachsynthese kann Nähe und Identität stützen, wo in Wahrheit nur ein technisches Konstrukt kommuniziert.

Gerade deshalb ist Deepfake-gestützte Täuschung keine bloße Variante alten Betrugs, sondern ein neuer Intensitätsgrad der Manipulation. Das gilt vor allem dort, wo die technische Erzeugung falscher Persönlichkeit, emotionaler Bindung und situativer Glaubwürdigkeit zielgerichtet eingesetzt wird, um Vermögensentscheidungen herbeizuführen.

Schutzbedürftigkeit und Ausnutzung von Verletzlichkeit

Ein besonders sensibler Aspekt manipulativer KI liegt in der Ausnutzung schutzbedürftiger Personen oder Gruppen. Gerade Love Scam richtet sich in der Praxis häufig an Menschen, die emotional erreichbar, sozial isoliert, älter, belastet oder in einer spezifisch verletzlichen Lebenssituation sind. Täter analysieren diese Ansprechbarkeit und bauen ihre Kommunikation daran ausgerichtet auf.

Wenn KI diese Muster verstärkt, etwa durch personalisierte Kommunikationsstrategien, datengetriebene Reaktionsanpassung oder emotionale Optimierung der Ansprache, verschiebt sich die Bewertung zusätzlich. Denn dann geht es nicht mehr nur um Täuschung im klassischen Sinn, sondern um technisch gestützte Ausnutzung individueller Verwundbarkeit.

Für die Praxis ist dieser Punkt besonders wichtig. Viele Betroffene haben zunächst das Gefühl, sie seien „nur hereingefallen“. Rechtlich ist das zu kurz gedacht. Gerade wenn Täterstrukturen systematisch auf emotionale Öffnungen, psychologische Schwächen und soziale Bedürfnisse reagieren – und dies unter Einsatz künstlicher Intelligenz –, liegt die eigentliche Brisanz gerade in der strukturierten Manipulationsarchitektur.

Wann KI-gestützte Täuschung mehr ist als ein bloßes Kommunikationsmittel

Nicht jede Nutzung generativer Systeme in einem Betrugsszenario genügt für die Annahme manipulativer KI. Entscheidend ist, ob die KI lediglich beiläufige Inhalte erzeugt oder ob sie funktional darauf ausgerichtet ist, Verhalten zu beeinflussen und Entscheidungswiderstände zu überwinden.

Gerade hier liegt in der anwaltlichen und regulatorischen Bewertung der entscheidende Unterschied. Ein bloßes Tool zur Textproduktion ist rechtlich anders zu würdigen als ein System, das Kommunikationsmuster lernt, Nähe simuliert, Vertrauen strategisch aufbaut, emotionale Lücken ausnutzt und in Zahlungen hineinführt. Maßgeblich ist also nicht nur, dass KI eingesetzt wurde, sondern wie tief sie in die Manipulationslogik integriert ist.

Für die Praxis bedeutet das: In Betrugsfällen muss sehr genau rekonstruiert werden, welche Kommunikationsformen verwendet wurden, ob Sprache, Bilder, Stimmen oder Videos synthetisch erzeugt oder verstärkt waren und ob sich daraus eine strukturierte Einflussnahme ableiten lässt. Gerade hier kann die technische Analyse später für die rechtliche Einordnung entscheidend sein.

Analyse von Deepfake- und KI-gestütztem Betrug im Love Scam Kontext
Auswertung von Bild- und Kommunikationsmaterial zur Identifikation von KI-gestützten Täuschungsmethoden wie Deepfakes im Betrugsumfeld.

Der besondere Fall: Deepfakes als Brücke zwischen Identitätstäuschung und Verhaltenslenkung

Deepfakes nehmen im Umfeld manipulativer KI eine Sonderstellung ein. Sie sind nicht bloß falsche Inhalte. In Betrugskonstellationen können sie zum zentralen Instrument der Identitätsstabilisierung werden. Das ist vor allem dann der Fall, wenn sie nicht isoliert auftreten, sondern in eine länger angelegte Kommunikationsbeziehung eingebettet sind.

Ein Deepfake-Video oder eine synthetisch gestützte Live-Kommunikation wirkt im Love-Scam-Kontext nicht nur beweisähnlich, sondern emotional absichernd. Es soll Zweifel beruhigen, Nähe bestätigen und den Eindruck erzeugen, dass eine reale Person mit echter Bindung existiert. Gerade dadurch wird der Schritt von Kommunikation zur Vermögensverfügung verkürzt.

Aus rechtlicher Sicht ist dieser Mechanismus erheblich. Die Täuschung liegt dann nicht nur in einer einzelnen falschen Identitätsbehauptung, sondern in der technisch erzeugten Erfahrungswirklichkeit des Opfers. Das erhöht nicht nur die faktische Täuschungsintensität, sondern kann auch die Einordnung des eingesetzten Systems als besonders problematische manipulative KI stützen.

Warum der AI Act für Betrugsopfer trotzdem kein Selbstläufer ist

So bedeutsam manipulative KI regulatorisch ist, so wichtig ist eine realistische Erwartung. Der AI Act begründet nicht automatisch Rückzahlungsansprüche und ersetzt auch keine Strafanzeige oder zivilrechtliche Anspruchsprüfung. Für Betroffene ist er kein Abkürzungsinstrument.

Seine Relevanz liegt vielmehr darin, dass er bestimmte technische Praktiken unionsrechtlich besonders scharf bewertet. Diese Bewertung kann in der strategischen Aufarbeitung eines Falls eine Rolle spielen, etwa bei der Einordnung des Tatmittels, bei der Beurteilung plattformseitiger Reaktionen oder bei der Frage, ob technische Warnsignale oder verbotene KI-Nutzung vorlagen.

Betroffene sollten deshalb nicht nur fragen, ob sie getäuscht wurden, sondern auch, welche technischen Mittel zur Täuschung eingesetzt wurden. Gerade in Fällen mit Videoanrufen, besonders glatter Kommunikation, ungewöhnlich konsistenten Profilen, synthetisch wirkender Sprache oder extrem schneller Vertrauensbildung kann die KI-Komponente erheblich sein.

Warum Mandanten mich mit der Einordnung manipulativer KI in Betrugsfällen beauftragen

Im Bereich digitaler Täuschung reicht es regelmäßig nicht, nur den Vermögensabfluss zu dokumentieren. Moderne Betrugsfälle müssen auch technisch verstanden werden. Gerade wenn KI, Deepfakes, synthetische Stimmen oder datengetriebene Kommunikationssysteme eingesetzt wurden, braucht es eine rechtliche Bewertung, die über die klassische Betrugsformel hinausgeht.

Ich arbeite an der Schnittstelle zwischen Krypto-Betrug, Plattformverantwortung, digitaler Forensik und anspruchsbezogener Aufarbeitung komplexer Online-Betrugsstrukturen. Genau deshalb liegt ein Schwerpunkt meiner Arbeit darin, technische Manipulationsmuster nicht nur zu erkennen, sondern rechtlich verwertbar einzuordnen.

Viele Mandate beginnen mit der Frage, ob ein Fall „einfach nur“ ein Love Scam war oder ob eine technisch gestützte Täuschungsarchitektur vorliegt, die auch unionsrechtlich und plattformbezogen anders bewertet werden muss. Diese Differenzierung ist oft entscheidend, wenn der Fall später strategisch aufgearbeitet werden soll.

Was Betroffene jetzt konkret tun sollten

Wer einen Love Scam, Deepfake-Betrug oder KI-gestützten Krypto-Betrug vermutet, sollte nicht nur Zahlungen sichern, sondern auch die technische Kommunikation systematisch dokumentieren. Dazu gehören Chatverläufe, Sprachaufnahmen, Videoausschnitte, Profilbilder, verwendete Plattformen und jede Auffälligkeit, die auf synthetische Inhalte oder automatisierte Kommunikation hindeuten könnte.

Besonders wichtig ist die frühe Sicherung. Viele Plattformen speichern Metadaten, Logdaten oder Inhalte nur begrenzt. Wenn dieser Bestand verloren geht, wird die spätere Einordnung deutlich schwieriger. Gerade bei Deepfake- oder Chatbot-gestützten Konstellationen entscheidet die frühe Beweissicherung oft darüber, ob sich die technische Manipulationsstruktur später noch belastbar rekonstruieren lässt.

Wenn Sie unsicher sind, ob in Ihrem Fall künstliche Intelligenz als Täuschungsinstrument eingesetzt wurde, kann ich den Sachverhalt kurzfristig einordnen und die relevanten nächsten Schritte strukturieren. Sie erreichen mich unter 0160 9955 5525 oder über hortmannlaw.com/contact

Großes FAQ: Manipulative KI bei Krypto-Betrug, Love Scam und Deepfakes

Was ist manipulative KI im Sinne des AI Act?
Gemeint sind KI-Systeme, die Verhalten gezielt beeinflussen oder Entscheidungen in eine schädigende Richtung lenken sollen. Entscheidend ist die technische Rolle bei der Verhaltenssteuerung.

Ist jeder Deepfake automatisch verboten?
Nicht automatisch. Maßgeblich ist der konkrete Einsatz. Im Betrugskontext können Deepfakes aber besonders problematisch werden, wenn sie gezielt zur Täuschung und Vermögenslenkung eingesetzt werden.

Warum ist Love Scam besonders relevant für manipulative KI?
Weil Love Scam auf emotionaler Bindung und psychologischer Einflussnahme beruht. KI kann diese Mechanismen technisch verstärken und skalieren.

Kann ein Chatbot Teil eines Betrugssystems sein?
Ja. Wenn ein Chatbot gezielt dazu dient, Vertrauen aufzubauen, emotionale Reaktionen zu steuern und Zahlungen auszulösen, kann er funktional Teil einer manipulativen Täuschungsarchitektur sein.

Welche Rolle spielen synthetische Stimmen?
Synthetische Stimmen können Identität und Nähe simulieren. Gerade in Kombination mit anderen Täuschungselementen können sie die Glaubwürdigkeit eines Scam-Systems erheblich erhöhen.

Hilft der AI Act Opfern direkt dabei, Geld zurückzubekommen?
Nicht automatisch. Der AI Act begründet keinen direkten Rückzahlungsautomatismus. Er kann aber die rechtliche Bewertung der eingesetzten technischen Mittel verschärfen.

Was sollten Opfer bei Verdacht auf Deepfake-Betrug sichern?
Chats, Videos, Audios, Bilder, Profilinformationen, Plattformdaten und alle Auffälligkeiten, die auf synthetische Inhalte hindeuten könnten.

Kann KI auch verletzliche Personen gezielt ausnutzen?
Ja. Gerade datengetriebene, personalisierte Systeme können auf emotionale, soziale oder sonstige Verletzlichkeit reagieren und diese gezielt verstärken.

Warum ist die technische Rekonstruktion so wichtig?
Weil manipulative KI oft nicht an einer einzelnen Nachricht erkennbar ist, sondern erst im Gesamtmuster der Kommunikation sichtbar wird.

Wann sollte ein Anwalt eingeschaltet werden?
Möglichst früh – insbesondere wenn der Verdacht besteht, dass künstliche Inhalte, Deepfakes oder automatisierte Kommunikationssysteme im Spiel waren.

Fazit: Manipulative KI macht aus digitaler Täuschung ein neues Eskalationsniveau

Love Scam, Deepfakes und KI-gestützte Kommunikationssysteme zeigen, dass moderne Betrugsmodelle nicht nur digital, sondern zunehmend künstlich generiert und technisch verstärkt sind. Der AI Act reagiert genau auf diese Entwicklung. Er ersetzt das Strafrecht nicht, macht aber deutlich, dass bestimmte KI-gestützte Manipulationsformen unionsrechtlich besonders kritisch sind.

Für Betroffene und für die spätere rechtliche Aufarbeitung ist deshalb entscheidend, nicht nur die Zahlungen, sondern auch die Manipulationsmittel selbst zu erfassen und zu bewerten.

Wenn Sie einen Fall mit Verdacht auf KI-gestützte Täuschung prüfen lassen möchten, können Sie mich direkt kontaktieren – telefonisch unter 0160 9955 5525 oder über hortmannlaw.com/contact.

AI Act & KI-Recht – Leitfäden im Überblick

Die folgenden Beiträge bilden eine geschlossene Struktur zum AI Act – von der Einordnung einzelner KI-Systeme über Hochrisiko-Klassifizierung und Datenschutz bis hin zu Haftung, Bußgeldern und spezifischen Fragestellungen im Bereich Krypto-Betrug und KI-gestützter Täuschung.

1. Grundlagen der AI-Act-Umsetzung

AI Act Anwalt: KI im Unternehmen rechtssicher umsetzen
https://www.hortmannlaw.com/articles/ai-act-anwalt-unternehmen-ki-umsetzung-probleme
Ein Überblick über die praktischen Umsetzungsprobleme des AI Act im Unternehmen: Governance, Dokumentation, Zuständigkeiten und organisatorische Anforderungen.

AI Act Anwalt: Wann ist KI überhaupt reguliert?
https://www.hortmannlaw.com/articles/ai-act-anwalt-wann-ist-ki-reguliert
Die zentrale Vorfrage: Wann fällt eine Softwarelösung unter den AI Act – und wann nicht? Maßgeblich für alle weiteren Pflichten.

2. Hochrisiko-KI und regulatorische Anforderungen

AI Act Anwalt: Hochrisiko-KI im Unternehmen richtig einstufen
https://www.hortmannlaw.com/articles/ai-act-anwalt-hochrisiko-ki-unternehmen
Die Einordnung als Hochrisiko-KI entscheidet über den gesamten Compliance-Aufwand. Darstellung der maßgeblichen Kriterien und Folgen.

AI Act Anwalt: KI und DSGVO im Unternehmen
https://www.hortmannlaw.com/articles/ai-act-anwalt-dsgvo-ki-unternehmen
Zusammenspiel von AI Act und DSGVO: Datenverarbeitung, Transparenzpflichten und Grenzen automatisierter Entscheidungen.

AI Act Anwalt: Haftung, Bußgeld und KI-Governance
https://www.hortmannlaw.com/articles/ai-act-anwalt-haftung-bussgeld-ki-governance
Haftungsrisiken, Organisationspflichten und Bußgeldrahmen. Warum KI-Governance zwingend auf Leitungsebene verankert werden muss.

3. Krypto-Betrug, Love Scam und KI

AI Act Anwalt: Einfluss auf Krypto Betrug, Love Scam und Romance Scam
https://www.hortmannlaw.com/articles/ai-act-anwalt-krypto-betrug-love-scam-romance-scam
Einordnung des AI Act im Kontext klassischer Betrugsdelikte. Der Einfluss ist mittelbar, aber strukturell relevant.

AI Act Anwalt: Krypto Betrug, Finanz-Compliance und Hochrisiko-KI
https://www.hortmannlaw.com/articles/ai-act-anwalt-krypto-betrug-finanz-compliance-hochrisiko-ki
Bedeutung des AI Act für Banken, Finanzinstitute und Krypto-nahe Systeme: Monitoring, Betrugsprävention und regulatorische Pflichten.

Weiterführende Beiträge & Ressourcen

Die folgenden Beiträge vertiefen zentrale Fragen zu Bankhaftung, Plattformverantwortung, Datenschutz, MiCA, DAC8, Vermögenssicherung und Soforthilfe bei Krypto-Betrug.

Bankhaftung & Zahlungsverkehr

Plattformhaftung, Wallets & Exchange-Verantwortung

Datenschutz, Auskunft & Geldwäsche

Regulierung & steuerliche Folgen

Vermögenssicherung & Soforthilfe

Max Hortmann
Rechtsanwalt
,
Hortmann Law
Verwandte Artikel

Das könnte Sie auch interessieren

Entdecken Sie weitere Beiträge zu aktuellen Themen rund um Digitalrecht, Cybercrime, Datenschutz, KI und Steuerrecht. Unsere verwandten Artikel geben Ihnen zusätzliche Einblicke und vertiefende Analysen.

Suchen Sie dringend diskrete, juristische Unterstüzung?

Wir helfen Ihnen gerne persönlich weiter – schildern Sie uns Ihr Anliegen und wir finden gemeinsam eine Lösung.

Kontakt aufnehmen