Anwalt für KI-Marketing & KI-Content: Rechtliche Risiken für Agenturen und Startups
Verfasst von
Max Hortmann
26 Nov 2025
•
Lesezeit:
Diesen Beitrag teilen
Rechtsanwalt Max Nikolas Mischa Hortmann, LL.M. Autor bei jurisPR-ITR und jurisAZO – bekannt aus BR24 und WirtschaftsWoche+ Ich berate Agenturen, Startups und Kreativunternehmen zu KI-Marketing, KI-Content, Haftung, DSGVO und den neuen europäischen KI-Regeln.
KI generiert heute Werbetexte, Bilder, Videos und komplette Kampagnen – schneller, günstiger und skalierbarer als je zuvor. Doch genau diese Möglichkeiten bringen tiefgreifende rechtliche Risiken mit sich. Immer mehr Agenturen und Startups setzen KI ein, ohne zu wissen, dass fehlerhafte Inhalte, manipulative UI-Elemente oder intransparente KI-Entscheidungen rechtliche Konsequenzen auslösen können. Betroffene stehen plötzlich vor Abmahnungen, DSGVO-Konflikten, Markenrechtsverstößen oder Haftungsansprüchen, obwohl die Inhalte technisch „automatisch“ erzeugt wurden. Für Unternehmen wird es daher entscheidend, die operative Nutzung von KI mit klaren rechtlichen Rahmenbedingungen zu verbinden.
Juristisch ist der Einsatz von KI im Marketing längst kein Randthema mehr. Die Forschung von Autoren wie Thomas Söbbing, Thomas A. Degen, Stefan Waitzinger, Ann-Kristin Mayrhofer, Björn Steinrötter, Lina Marie Schauer und Thomas Wilmer zeigt deutlich, dass KI-Content rechtliche Anforderungen aus Urheberrecht, UWG, DSGVO, KI-VO und Produkthaftung berührt. Dieser Beitrag zeigt, was moderne KI-Marketingprozesse rechtlich bedeuten, welche Pflichten gelten und wie Agenturen, Startups und Kreative sich absichern.
I. Urheberrechtliche Risiken generierter KI-Inhalte
Die Frage, wem KI-generierte Inhalte gehören und wer für Fehler haftet, wird häufig falsch beantwortet. Metz zeigt im Steuerberater-Branchenhandbuch, dass KI-Outputs in aller Regel keine Werke im Sinne von § 2 UrhG darstellen, da es an der persönlichen geistigen Schöpfung fehlt. Das bedeutet: KI-Texte, KI-Bilder oder KI-Videos genießen keinen urheberrechtlichen Schutz, können aber Rechte Dritter verletzen – etwa durch Übernahme geschützter Strukturen, Stilelemente oder Daten aus dem Training.
Thomas Wilmer stellt in K&R 2023, 233–240 klar, dass Nutzer von KI-Generierungen nicht automatisch Rechte an den erzeugten Inhalten erwerben. Gleichzeitig kann die Nutzung dieser Inhalte zu urheberrechtlichen Konflikten führen, insbesondere wenn KI auf urheberrechtlich geschützten Trainingsdaten basiert oder fremde Markennamen, Slogans oder geschützte Formulierungen in abgewandelter Form reproduziert. Für Agenturen bedeutet das: KI-Content ist nicht frei von Rechten, sondern hochriskant.
Die lauterkeitsrechtlichen Risiken werden oft unterschätzt. Steinrötter und Schauer zeigen in WRP 2024, 873–882, dass KI-optimierte Benutzeroberflächen unabsichtlich Dark Patterns erzeugen können. Wenn KI automatisch Farben, Layouts oder Button-Positionen optimiert, um Conversions zu erhöhen, können daraus manipulative Muster entstehen – künstliche Verknappung, optische Täuschung oder versteckte Entscheidungslenkung.
Seichter weist in jurisPK-UWG zu § 5a UWG darauf hin, dass Irreführung durch Unterlassen bereits dann vorliegt, wenn wesentliche Informationen im Marketingprozess fehlen oder nicht klar erkennbar sind. KI-Marketingtools, die Angebote dynamisch variieren oder personalisierte Empfehlungen ausspielen, bewegen sich schnell im Bereich unzulässiger Irreführung. Besonders problematisch ist, wenn die KI bestimmte Zielgruppen stärker beeinflusst als andere – ein Risiko, das Steinrötter und Schauer ausdrücklich beschreiben.
„Futuristische Darstellung moderner KI-Technologien im juristischen Kontext. Die Szene zeigt digitale Benutzeroberflächen, Datenströme und Entscheidungssysteme, die symbolisieren, wie ein Anwalt für KI, wie Max Hortmann von Hortmann Law, komplexe Algorithmen, Verantwortung und rechtliche Risiken im Bereich künstlicher Intelligenz bewertet und begleitet.“
III. Datenschutzrechtliche Risiken beim Einsatz von KI-Marketingtools
Der Einsatz von KI-Marketingtools ist nahezu immer mit der Verarbeitung personenbezogener Daten verbunden. Thomas A. Degen und Stefan Waitzinger zeigen in K&R 2025, 556–563, dass KI-Agenten und cloudbasierte Modelle häufig auf Nutzerdaten zugreifen, diese bewerten oder mit externen Datenquellen verknüpfen. Genau dadurch entstehen hohe Anforderungen nach der DSGVO. Sobald KI Inhalte personalisiert, Profile bildet oder Nutzersegmente analysiert, liegt ein datenschutzrechtlich besonders sensibler Vorgang vor. Die DSGVO verlangt in solchen Fällen transparente Informationen, klare Rechtsgrundlagen, dokumentierte Datenflüsse und technische Schutzmaßnahmen. Werden diese Anforderungen nicht erfüllt, besteht ein erhebliches Risiko für Bußgelder und Abmahnungen.
Thomas Wilmer weist in K&R 2023, 233–240 darauf hin, dass KI-Systeme häufig intransparent arbeiten und Nutzer nicht nachvollziehen können, welche Daten verarbeitet werden oder wie Entscheidungen entstehen. Diese Intransparenz führt zu rechtlichen Risiken, weil Betroffene die Korrektur, Auskunft oder Löschung nicht effektiv durchsetzen können. Zugleich zeigen Degen und Waitzinger, dass Agenturen und Startups aufgrund neuer KI-Architekturen sicherstellen müssen, dass Datenverarbeitung nicht versehentlich zu unzulässigem Profiling oder automatisierten Einzelentscheidungen führt. Wer KI im Marketingbereich einsetzt, muss deshalb schon bei der technischen Implementierung sicherstellen, dass Datenschutz, KI-Modelllogik und Backend-Prozesse sauber miteinander abgestimmt sind.
IV. Produkthaftung und technische Verantwortung bei KI-Marketingprozessen
Die Produkthaftungsregeln erfassen inzwischen auch digitale Systeme und KI-Komponenten. Ann-Kristin Mayrhofer zeigt in RDi 2024, 492–501, dass Software heute als sicherheitsrelevantes Produkt gelten kann und Fehler in digitalen Bausteinen haftungsrechtliche Folgen haben. Dies betrifft insbesondere KI-Marketingtools, die Daten verarbeiten, Ergebnisse erzeugen oder Empfehlungen ausspielen, die wirtschaftliche Auswirkungen entfalten. Wenn KI fehlerhafte oder irreführende Inhalte erzeugt und dadurch ein Schaden entsteht, kann dies als Produktfehler gewertet werden – auch dann, wenn Inhalte nicht von Menschen, sondern von KI generiert wurden.
Diese Einschätzung wird durch Thomas Söbbing gestützt, der in ITRB 2025, 105–107 erklärt, dass KI-Systeme als digitale Produkte dem erweiterten europäischen Produkthaftungsrahmen unterfallen. Entscheidend ist, ob das System so funktioniert, wie es Nutzer erwarten dürfen. Wenn KI-Marketingtools fehlerhafte Bewertungen, Sicherheitslücken, unzureichende Aktualisierungen oder intransparente Logiken aufweisen, können daraus Ansprüche gegen Anbieter entstehen. Für Agenturen bedeutet das, dass sie nicht nur kreative Verantwortung tragen, sondern auch technische und rechtliche. Für Startups bedeutet es, dass die Verantwortung für KI-Fehler nicht allein beim Modellanbieter liegt, sondern bei jedem, der KI in seine Wertschöpfung einbindet.
V. Verantwortlichkeit von Agenturen und Startups bei KI-generiertem Content
Agenturen und Startups, die KI-Tools im Marketing einsetzen, übernehmen nicht nur eine kreative Rolle, sondern auch eine rechtliche und technische Verantwortung für die Ergebnisse. Thomas Wilmer zeigt in K&R 2023, 233–240, dass Nutzer KI-Ausgaben häufig als verlässlich ansehen, obwohl diese inhaltlich falsch, unvollständig oder rechtlich problematisch sein können. Wenn solche Inhalte bei Kunden oder Endverbrauchern Schäden verursachen, können daraus direkte Haftungsrisiken entstehen. Besonders relevant ist dies bei automatisierten Texten, KI-generierten Vertragsinhalten, fehlerhaften Produktbeschreibungen oder riskanten Werbeaussagen. Die Tatsache, dass der Inhalt automatisiert erzeugt wurde, entlastet eine Agentur oder ein Startup nicht – im Gegenteil: Gerade die Automatisierung verlangt nach klaren Prüf- und Kontrollprozessen.
Ann-Kristin Mayrhofer beschreibt in RDi 2024, 492–501, dass Softwarekomponenten, die in Marketingprozessen eingesetzt werden, inzwischen als sicherheits- und haftungsrelevante digitale Produkte gelten können. Das gilt besonders dann, wenn KI-Systeme wirtschaftlich relevante Entscheidungen vorbereiten oder technische Risiken erzeugen. Eine KI, die z. B. automatisch Preise optimiert, Zielgruppen einteilt oder Vertragsbestandteile formuliert, kann bei Fehlfunktion einen haftungsrechtlichen Schaden verursachen. Ebenso weist Thomas Söbbing in ITRB 2025, 105–107 darauf hin, dass KI-Produkte nach der neuen Produkthaftungsrichtlinie haftungsrechtlich wie physische Produkte behandelt werden. Für Agenturen bedeutet das: Wer KI nutzt, muss gewährleisten, dass Inhalte korrekt, rechtlich einwandfrei und technisch abgesichert sind – andernfalls entstehen echte Haftungsrisiken.
VI. Rechtliche Handlungspflichten für den Einsatz von KI im Marketing
Die rechtlichen Handlungspflichten ergeben sich aus einem Zusammenspiel von KI-Verordnung, DSGVO, UWG und Produkthaftung. Thomas A. Degen und Stefan Waitzinger zeigen in K&R 2025, 556–563, dass der Einsatz von KI-Marketingtools zwingend klare Datenschutz-Governance voraussetzt: Datenflüsse müssen dokumentiert, Profiling-Risiken bewertet und technische Maßnahmen implementiert werden, um unzulässige Verarbeitungen zu verhindern. KI-Modelle dürfen nicht unkontrolliert auf personenbezogene Daten zugreifen oder automatisierte Einteilungen vornehmen, die Nutzer nicht verstehen oder beeinflussen können. Für Agenturen bedeutet das: Jeder KI-Prozess muss auf Transparenz, Fairness und Datenminimierung ausgelegt sein.
Laut Steinrötter und Schauer in WRP 2024, 873–882 müssen KI-basierte Interfaces und Empfehlungen zudem so gestaltet werden, dass sie keine manipulativen Elemente enthalten und Nutzer nicht in Entscheidungen drängen, die sie sonst nicht getroffen hätten. Zusätzlich verlangt die Analyse von Sassenberg in CR 2025, 209–216, dass KI-Modelle technisch so aufgebaut sein müssen, dass ihre Funktionsweise überprüfbar bleibt, Updates kontrolliert werden und Fehler erkannt werden können. Für Startups bedeutet dies einen klaren Auftrag: KI-Marketing darf nicht „einfach laufen“, sondern braucht ein dokumentiertes Prüfverfahren, regelmäßige technische Kontrollen und eine klare Verantwortungsstruktur. Agenturen wiederum müssen vertraglich sicherstellen, dass sie für KI-Inhalte Prüfleistungen erbringen oder ihre Haftung klar regeln.
„Futuristische Darstellung moderner KI-Technologien im juristischen Kontext. Die Szene zeigt digitale Benutzeroberflächen, Datenströme und Entscheidungssysteme, die symbolisieren, wie ein Anwalt für KI, wie Max Hortmann von Hortmann Law, komplexe Algorithmen, Verantwortung und rechtliche Risiken im Bereich künstlicher Intelligenz bewertet und begleitet.“
VII. Fazit
KI-Marketing bietet enorme Möglichkeiten, aber ebenso große rechtliche Risiken. Agenturen und Startups stehen heute vor der Herausforderung, automatisierte Inhalte so zu gestalten, dass sie rechtlich einwandfrei, transparent und überprüfbar sind. Die Analysen von Wilmer, Mayrhofer, Söbbing, Degen, Waitzinger, Sassenberg sowie Steinrötter und Schauer machen deutlich, dass KI-generierte Inhalte nicht als neutrale technische Outputs betrachtet werden dürfen. Sie sind rechtlich bewertbar, können gegen Datenschutzrecht verstoßen, irreführend wirken, Rechte Dritter verletzen oder sogar haftungsrechtliche Konsequenzen auslösen.
Für Unternehmen bedeutet das, dass moderne Marketingprozesse ohne klare rechtliche Struktur nicht mehr tragfähig sind. KI muss dokumentiert, kontrolliert und regelmäßig überprüft werden. Nutzer müssen verstehen können, wie Empfehlungen zustande kommen, und Unternehmen müssen sicherstellen, dass Datenverarbeitung rechtmäßig und transparent bleibt. Gleichzeitig erhalten Betroffene mehr Rechte, um gegen fehlerhafte Inhalte, intransparente Prozesse oder manipulative Mechanismen vorzugehen. KI-Marketing kann nur dann ein Wettbewerbsvorteil sein, wenn die rechtlichen Rahmenbedingungen konsequent eingehalten werden. Wer frühzeitig klare Regeln etabliert, schützt nicht nur sein Unternehmen, sondern schafft auch Vertrauen bei Kunden und Partnern.
Wie gefährlich sind KI-generierte Inhalte aus rechtlicher Sicht für Agenturen und Startups? KI-Outputs wirken professionell, sind aber rechtlich oft ungesichert. Wie Metz beschreibt, fehlt KI-Erzeugnissen regelmäßig der urheberrechtliche Schutz, gleichzeitig können diese Inhalte dennoch Rechte Dritter verletzen. Für Agenturen und Startups bedeutet das: Jeder KI-Output muss geprüft werden, bevor er veröffentlicht oder an Kunden weitergegeben wird. Fehlerhafte Inhalte können Haftungsansprüche auslösen.
Kann KI-Marketing als Irreführung gewertet werden? Ja. Steinrötter und Schauer zeigen, dass KI-basierte Gestaltung schnell zu Dark Patterns oder intransparenten Elementen führt. Wenn wesentliche Informationen fehlen oder das Interface den Nutzer lenkt, kann dies nach § 5 und § 5a UWG als Irreführung bewertet werden. Agenturen tragen dafür die Verantwortung.
Welche Daten darf ein KI-Marketingtool verarbeiten? Die DSGVO verlangt eine klare Rechtsgrundlage. Degen und Waitzinger zeigen, dass KI-Agenten häufig weitreichend personenbezogene Daten verarbeiten. Profiling, personalisierte Werbung oder automatisierte Entscheidungen erfordern Transparenz, Zweckbindung und technische Sicherheitsmaßnahmen. Ohne diese Vorgaben drohen Bußgelder.
Wer haftet, wenn KI fehlerhafte Werbung oder falsche Aussagen generiert? Wilmer macht deutlich, dass Unternehmen die Verantwortung für KI-Output nicht delegieren können. Sowohl Agenturen als auch Startups haften, wenn KI-Inhalte wirtschaftliche Schäden verursachen, gegen gesetzliche Vorgaben verstoßen oder Verbraucher in die Irre führen.
Sind KI-generierte Bilder und Texte urheberrechtlich geschützt? In der Regel nein. Metz hält fest, dass KI-Output mangels menschlicher Schöpfung nicht als Werk geschützt ist. Dadurch können Inhalte zwar frei genutzt werden — aber sie können auch unbewusst geschützte Elemente enthalten, die Rechte verletzen. Daher ist eine Prüfung unerlässlich.
Wie erkenne ich, ob mein KI-Marketingtool gegen Datenschutzrecht verstößt? Ein Warnsignal ist Intransparenz. Degen und Waitzinger zeigen, dass viele KI-Systeme unklar lassen, welche Daten sie wie verarbeiten. Wenn Nutzer nicht nachvollziehen können, wie Profile entstehen oder welche Informationen genutzt werden, drohen Verstöße gegen die DSGVO.
Dürfen KI-Tools personalisierte Preise, Angebote oder Rankings erzeugen? Das ist möglich, aber rechtlich heikel. Nach Mayrhofer können fehlerhafte digitale Systeme haftungsrechtliche Konsequenzen haben. Zudem droht Irreführung, wenn personalisierte Entscheidungen nicht offengelegt werden oder Nutzer nicht verstehen, wie Ergebnisse zustande kommen.
Welche vertraglichen Pflichten bestehen für Agenturen beim Einsatz von KI? Agenturen müssen gewährleisten, dass KI-Output geprüft, rechtlich bewertet und transparent gekennzeichnet wird. Sassenberg zeigt, dass KI-Systeme technisch dokumentiert und überwacht werden müssen. Unternehmen müssen vertraglich klarstellen, ob sie Prüfpflichten übernehmen oder ausschließen.
Wie können Startups rechtliche Risiken beim KI-Marketing minimieren? Durch klare Governance: Datenflüsse dokumentieren, Risiken bewerten, Modelle überwachen, Inhalte prüfen und transparente Kommunikation sicherstellen. Steinrötter und Schauer zeigen, dass schon kleine Interface-Änderungen unbewusst manipulative Muster auslösen können.
Wann kann ich als Betroffener gegen KI-generierte Inhalte vorgehen? Immer dann, wenn Inhalte irreführend, rechtsverletzend oder datenrechtswidrig sind. Nutzer können Auskunft verlangen, fehlerhafte Inhalte löschen lassen und bei Schäden Ansprüche geltend machen. Auch DSGVO-Beschwerden sind möglich, wenn automatisierte Entscheidungen nicht nachvollziehbar oder unfair sind.
Mini-FAQ
Sind KI-generierte Inhalte automatisch rechtlich unbedenklich? Nein, sie können trotz Automatisierung Rechte Dritter verletzen.
Kann KI-Marketing ohne Datenschutzhinweise betrieben werden? Nein, jede Datenverarbeitung benötigt eine klare Rechtsgrundlage.
Müssen Agenturen KI-Output überprüfen? Ja, sie haften für fehlerhafte oder irreführende Inhalte.
Darf KI personalisierte Preise ausspielen? Nur transparent und mit rechtlicher Grundlage.
Kann KI irreführende Werbung erzeugen? Ja, das ist häufig der Fall und rechtlich problematisch.
Ist KI-basierte Segmentierung datenschutzrechtlich kritisch? Ja, sie kann Profiling darstellen und strengen Regeln unterliegen.
Sind KI-generierte Bilder urheberrechtlich geschützt? In der Regel nicht, da kein menschlicher Schöpfungsakt vorliegt.
Kann ich gegen KI-Inhalte vorgehen, wenn sie mich schädigen? Ja, Betroffene haben Ansprüche auf Auskunft, Löschung und Schadensersatz.
Sind Dark Patterns auch bei KI verboten? Ja, manipulative Designs bleiben unzulässig – auch wenn KI sie erzeugt.
Dürfen Startups KI ohne Dokumentation nutzen? Nein, fehlende Dokumentation verletzt zentrale gesetzliche Pflichten.
Handlungsbox
Wenn KI-generierte Inhalte fehlerhaft, irreführend oder datenschutzwidrig sind, sollten Sie nicht abwarten. Viele Risiken entstehen durch automatisierte Entscheidungen, die ohne Prüfung veröffentlicht werden. Je schneller rechtlich eingegriffen wird, desto besser lassen sich Schäden begrenzen und Ansprüche sichern. Ich unterstütze Agenturen, Startups und Betroffene bei der Bewertung von KI-Content, der Sicherung digitaler Beweise und der Durchsetzung ihrer Rechte.
Entdecken Sie weitere Beiträge zu aktuellen Themen rund um Digitalrecht, Cybercrime, Datenschutz, KI und Steuerrecht. Unsere verwandten Artikel geben Ihnen zusätzliche Einblicke und vertiefende Analysen.
KI & Zukunftsrecht
11/28/2025
November 28, 2025
DORA für Krypto 2025: Anwalt erklärt Token-, CASP- & Outsourcing-Pflichten
DORA verlangt von Krypto-Anbietern einheitliche Incident-Meldungen, Red-Team-Tests, IKT-Risikomanagement und strenge Cloud-Governance. Der Beitrag zeigt, welche Pflichten für Token-Emittenten, CASPs und Plattformbetreiber 2025 verbindlich werden.
Organhaftung 2025: Anwalt erklärt MiCA-, KMAG- & DORA-Pflichten für Krypto und Token
MiCA, KMAG und DORA schaffen erstmals eine umfassende persönliche Haftung für Geschäftsleiter im Krypto-Sektor. Fehler bei Whitepaper, Governance oder IT-Sicherheit führen zu individuellen Sanktionen, Bußgeldern oder Berufsverboten. Der Beitrag zeigt Pflichten und Schutzstrategien.
Asset-referenced Tokens erfordern robuste Governance, Preisstabilitätsmechanismen und Oracle-Sicherheit. MiCA macht Emittenten persönlich verantwortlich für Stabilität, Updates und Markttransparenz. Der Beitrag zeigt Risiken, Haftung und Compliance-Strukturen.