Deepfake aus presserechtlicher Sicht – Rechtslage, Reformpläne und Ihre Rechte

Das Phänomen „Deepfake“ ist seit Aufkommen und Nutzung von KI-Tools nicht neu, steht aber nunmehr im Mittelpunkt einer breiteren gesellschaftlichen und juristischen Debatte seit dem öffentlich werden von sexualisierten Bildern realer Personen durch „Grok“ und wegen seit dem dem öffentlichen Vorwurf der Moderatorin Collien Fernandes gegen Christian Ulmen gefälschte u.A: gefäschte Profile von ihr mit pornografischen Inhalten erstellt und angeblich Deep-Fake Pornos verbreitet zu haben. Der Spiegel berichtete hierüber in einer Titelgeschichte über die Vorwürfe der Schauspielerin und Moderatorin Collien Fernandes gegen ihren Ex-Mann. Ende 2025 erstattete sie Strafanzeige in Spanien, wo das Paar zuletzt gelebt hatte – eine bewusste strategische Entscheidung, da nach ihrer Einschätzung in Spanien die Rechte von Frauen deutlich besser geschützt seien als in Deutschland. Das zuständige spanische Gericht hat Vorermittlungen eingeleitet. Der öffentlich Fall mit Promi-Bezug wirft ein Schlaglicht auf die schwierige Rechtsverfolgung von sexualisierten Deep-Fakes, schwerer bewusster Verleumdung im Internet die bis zur öffentlichen Vernichtung führen können. Zuvor dazu sorgte der sogenannte Grok-Skandal für Empörung: Elon Musks KI-System „Grok” generierte ungefragt sexualisierte Bilder realer Personen – ohne Einwilligung, ohne Warnung, ohne strafrechtliche Konsequenz.

Der öffentlich Fall insbesondere mit Promi-Bezug wirft ein Schlaglicht auf die schwierige Rechtsverfolgung von sexualisierten Deep-Fakes, schweren Verleumdungen im Internet die bis zur öffentlichen Vernichtung führen können. Die juristischen Möglichkeiten stehen faktischen Durchsetzungsproblemen gegenüber großen Plattformen mit Auslandsbezug, langsame Bearbeitung und zum Teil technische Überforderung und lustlose Bearbeitung durch Gerichte, Polizei und Staatsanwaltschaften gegenüber. Datenschutzrechtliche Gestattungsverfahren werden in die Länge gezogen, Auskünfte einfach nicht erteilt und deutsche Zuständigkeiten verneint oder in Frage gestellt und Strafverfahren werden vorschnell eingestellt . Zudem kann der Rechtsrahmen vieles vollumfänglich nicht abbilden und auffangen. In der Zeit werden Betroffene – ganz gleich ob bekannt oder unbekannt – mitunter öffentlich vernichtet.

Auch Deep Fakes sind kein Einzelphänomen. Schätzungsweise 96 % aller im Netz kursierenden Deep Fakes haben pornografischen Inhalt, wobei beinahe ausnahmslos Frauen betroffen sind. Der durch Deep Fakes verursachte Vertrauensschaden ist jedoch weit größer: Auch Medien und Presseveröffentlichungen sind betroffen, wenn etwa Nachrichtensprecher in gefälschten Videos über angeblich lukrative Investments berichten – ein Vorgang, der einerseits das Ansehen der betroffenen Person schädigt und andererseits gutgläubige Verbraucher täuscht. Die Anzahl der Identitätstäuschungsversuche unter Verwendung digitaler Fälschungen ist zwischen 2021 und 2024 um über 2.000 % angestiegen.

Der Fall Fernandes/Ulmen hat – über das individuelle Schicksal hinaus – eine erhebliche rechtspolitische Dynamik ausgelöst: Bundesjustizministerin Stefanie Hubig (SPD) kündigte noch am 20. März 2026 eine Beschleunigung des Digitalen Gewaltschutzgesetzes an, das unter anderem neue Straftatbestände (§§ 201b, 201c StGB-E) sowie die Erweiterung des Stalking-Tatbestands (§ 238 StGB) und zivilrechtliche Auskunftsansprüche gegen Plattformen vorsieht. Grund genug auf die vorhandenen und Das vorliegende Dossier analysiert die geltende Rechtslage – namentlich §§ 201a ff. StGB, §§ 22 ff. KUG, das allgemeine Persönlichkeitsrecht sowie die Plattformhaftung nach DSA und TDDDG –, beleuchtet aktuelle Gesetzgebungsinitiativen und gibt Betroffenen und ihren Anwälten konkrete Handlungsempfehlungen.

Rechtslage zu deep Fakes: Was gilt heute?

Zivilrechtlicher Schutz

Allgemeines Persönlichkeitsrecht

Das allgemeine Persönlichkeitsrecht aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG bildet den zivilrechtlichen Ausgangspunkt. Deep Fakes greifen typischerweise in mehrere Ausprägungen des allgemeinen Persönlichkeitsrechts ein: das Recht auf informationelle Selbstbestimmung, das Recht am eigenen Bild, das Recht am eigenen Wort und das Namensrecht. Das allgemeine Persönlichkeitsrecht schützt sowohl vor unrichtigen, verfälschten als auch entstellten Wiedergaben einer Äußerung – von BVerfGE 34, 269 (Soraya), über BVerfGE 54, 148 (Eppler) bis BVerfGE 54, 208 (Böll/Walden) Es gibt schlicht keinen Rechtfertigungsgrund, jemandem Äußerungen in den Mund zu legen, die er tatsächlich nicht getätigt hat.

Recht am eigenen Bild (§§ 22 ff. KUG)

Das Kunsturhebergesetz (KUG) schützt als spezialgesetzliche Ausformung des allgemeinen Persönichkeitsrecht das Verbreiten und öffentliche Zur-Schau-Stellen von Bildnissen Ein Bildnis i.S.v. § 22 KUG ist die erkennbare Darstellung einer Person in einer dem Leben entsprechenden Erscheinung Seit dem Tina-Turner-Urteil des BGH (NJW 2022, 1676) sind Deep Fakes unstreitig als Bildnisse i.S.d. KUG einzuordnen. Liegt keine Einwilligung vor, ist die Verbreitung nur ausnahmsweise nach § 23 Abs. 1 KUG – z.B. für journalistische Zwecke – zulässig, wobei nach der Ron-Sommer-Entscheidung (BVerfG NJW 2005, 3271) ein genereller Schutz gegen jede nicht-konsensuale Verbreitung besteht.

Plattformhaftung nach DSA und OLG Frankfurt

Das OLG Frankfurt hat in einem wegweisenden Beschluss (OLG Frankfurt, Beschl. v. 04.03.2025 – 16 W 10/25 = GRUR-RS 2025, 3551) einen rechtswidrigen Eingriff in das APR eines prominenten Arztes durch ein Deep-Fake-Werbevideo auf Meta (Facebook) bejaht. Anspruchsgrundlage war §§ 1004 Abs. 1 S. 2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 1 Abs. 1 GG, Art. 8 EMRK Der durch das Deep Fake erweckte rechtsverletzende Eindruck entstand nach dem Gericht durch die kumulative Benutzung von Name, Stimme und Bildnis des Betroffenen Plattformen verletzen ihre Prüfpflicht nach Art. 6 Abs. 1 lit. b) DSA, wenn sie nicht unverzüglich nach Kenntniserlangung alle identischen und kerngleichen Videos auf ihrer Plattform identifizieren und sperren KI-basierte Überprüfung wird dabei als zumutbarer und nunmehr zum Standard erhobener technischer Mindeststandard angesehen.

Strafrechtliche Einordnung

Das bisherige Strafrecht pönalisiert in erster Linie die Verbreitung missbräuchlicher Deep Fakes. Die Herstellung an sich bleibt – außerhalb kinder- und jugendpornografischer Inhalte (§§ 184b, 184c StGB) – regelmäßig straflos.

§ 201a Abs. 2 StGB: Zugänglichmachung einer Bildaufnahme an Dritte bei erheblicher Ansehensschädigung; ob gänzlich neu generierte Bilder erfasst sind, ist umstritten.

§§ 185 ff. StGB: Beleidigung, üble Nachrede, Verleumdung; anwendbar, wenn in Deep Fakes ehrverletzende Äußerungen „in den Mund gelegt“ werden.

§ 263 StGB: CEO-Fraud mit KI-generierten Stimmimitationen ist unproblematisch erfasst.

§§ 184b, 184c StGB: Kinder- und jugendpornografische Deep Fakes sind umfassend strafbar, auch ohne reales Geschehen.

§§ 106, 108 UrhG; § 33 KUG; § 42 BDSG: Nebenstrafrecht mit begrenzter praktischer Bedeutung.

Deepfake Reformpläne: Neue Gesetzgebungsinitiativen

Deutschland: Nationales Gesetzgebungsprogramm

Das Digitale Gewaltschutzgesetz (Bundesjustizministerin Hubig, März 2026)

Bundesjustizministerin Stefanie Hubig (SPD) hat im März 2026 ein „Digitales Gewaltschutzgesetz“ angekündigt. Dieses Gesetz soll insbesondere die Verbreitung von Deep-Fake-Pornografie unter Strafe stellen und damit die bestehende Regelungslücke bei der Herstellung nicht-konsensualer pornografischer Deep Fakes schließen. Das Vorhaben knüpft an die bereits im Koalitionsvertrag 2025 verankerte Verpflichtung an, digitale Gewalt als eigenständiges Rechtsproblem anzugehen. Inhaltlich ist zu erwarten, dass der neue Tatbestand sowohl die Herstellung als auch die Verbreitung von nicht-konsensualen sexualisierten Deep Fakes erfassen wird, sofern der Täter in Schädigungsabsicht handelt. Ergänzt werden soll dies durch verbesserte Lösch- und Auskunftsansprüche gegen Plattformbetreiber.

Die Initiative ist auch eine Reaktion auf den systematischen Missstand, dass § 201a Abs. 2 StGB nach herrschender Meinung nur die Verbreitung, nicht aber die Herstellung erfasst , und dass § 42 BDSG wegen des Erfordernisses der Drittschädigungsabsicht (dolus directus 1. Grades) praktisch leerläuft Das Digitale Gewaltschutzgesetz soll diese Lücken in einem kohärenten neuen Tatbestand schließen – ähnlich wie das bereits geltende Gewaltschutzgesetz zivilrechtliche Schutzanordnungen für Opfer physischer Gewalt ermöglicht.

Bundesrat-Initiative: § 201b StGB-E

Parallel zur Bundesjustizministerin hat der Bundesrat – gestützt auf BT-Drs. 21/1383 – einen Antrag zur Einführung eines neuen § 201b StGB-E eingebracht. Der Entwurf sieht einen eigenständigen Straftatbestand vor, der die Herstellung und Verbreitung von Deep Fakes zu Schädigungszwecken erfasst. Inhaltlich orientiert sich der Vorschlag an dem von Lantwin (MMR 2020, 78) entwickelten Konzept eines technologieoffenen „Impersonation“-Tatbestands nach dem Vorbild US-amerikanischer „false impersonation statutes“ (Cal. Penal Code § 528.5; N.Y. Penal Law § 190.25).

Der geplante § 201b StGB-E würde die nicht-konsensuale, glaubwürdige Nachahmung einer Person unter Strafe stellen, wenn dies zur Täuschung im Rechtsverkehr, zur Schädigung der betroffenen Person, zur Einschüchterung oder zur Aufstachelung zu Gewalttaten geschieht und der Täter von der fehlenden Echtheit des Inhalts Kenntnis hat Im politischen Kontext ist große Zurückhaltung geboten: Ein kategorisches Verbot politischer Deep Fakes würde in den Kernbereich der Meinungs- und Kunstfreiheit (Art. 5 Abs. 1 S. 1, Abs. 3 GG) eingreifen Der Bundesrat schlägt daher Ausnahmeregelungen für offensichtlich satirische oder künstlerische Inhalte vor – ähnlich wie § 201a Abs. 4 StGB in ähnlicher Form bereits heute vorgesehen ist.

Bewertung: Warum Strafrecht allein nicht reicht

Selbst wenn ein neuer § 201b StGB oder das Digitale Gewaltschutzgesetz in Kraft treten, werden sie die praktischen Durchsetzungsprobleme nicht lösen. Das Strafrecht ist nur eines von vielen Mitteln, das neben technischen Detektionsmethoden und einem gesellschaftlichen Lernprozess im Umgang mit Deep Fakes wirken muss Denn:

Die hohen Einstellungsquoten nach §§ 153, 154 StPO bei schweren öffentlichen Verleumdungen und bei Deep-Fake-Sachverhalten sind nicht nur dem fehlenden Straftatbestand geschuldet, sondern auch der technischen Überforderung der Ermittlungsbehörden beim Nachweis der Urheberschaft eines Deep Fakes. Der CEO-Fraud mit Deep-Fake-Stimmimitation hat bereits bei einem britischen Unternehmen einen Schaden von 220.000 Euro verursacht ; die Täter sind in aller Regel nicht in Deutschland ansässig. Das deutsche Strafrecht kann territorial begrenzt nur dort eingreifen, wo der Täter identifiziert und seiner Verantwortung zugeführt werden kann.

EU-Ebene: AI Act, AI Omnibus und DSA

1. AI Act (VO (EU) 2024/1689) – bereits in Kraft

Der AI Act ist seit dem 1. August 2024 in Kraft und gilt ab dem 2. August 2026 vollumfänglich. Art. 50 Abs. 4 AI Act verpflichtet Betreiber von KI-Systemen, offenzulegen, dass ein Deep Fake durch KI generiert oder manipuliert wurde . Ausnahmen gelten für Strafverfolgungszwecke sowie für offensichtlich künstlerische, kreative, satirische oder fiktionale Werke, bei denen die Offenlegungspflicht auf eine Kennzeichnung beschränkt wird, die Darstellung oder Genuss des Werks nicht beeinträchtigt.

Anbieter von KI-Systemen müssen nach Art. 50 Abs. 2 AI Act sicherstellen, dass synthetische Inhalte als solche gekennzeichnet sind – wobei KI-Wasserzeichen als bevorzugte technische Methode gelten, aber noch nicht die Interoperabilitätsanforderungen des AI Act erfüllen Amazon, Anthropic, Google, Meta, Microsoft und OpenAI haben sich 2023 gegenüber der US-Regierung zur Einführung von KI-Wasserzeichen verpflichtet; die Umsetzung verläuft schleppend.

2. Geplanter EU AI Omnibus

Die EU-Kommission plant mit dem AI Omnibus eine umfassende Neujustierung des AI Acts für bestimmte Anbieter- und Betreibergruppen. Im Bereich synthetischer Medien ist zu erwarten, dass die Kennzeichnungspflichten für Deep Fakes konkretisiert und die technischen Interoperabilitätsstandards für Wasserzeichen harmonisiert werden. Zudem soll der Anwendungsbereich von Art. 50 AI Act auf neue Kategorien von GPAI-Systemen ausgedehnt werden.

DSA Art. 16 – Notice-and-Takedown für illegale Deepfakes

Der Digital Services Act (DSA) etabliert nach Art. 16 ein harmonisiertes Notice-and-Takedown-Verfahren: Plattformen müssen rechtswidrige Inhalte – darunter Deep Fakes, die §§ 185–187, 201a StGB erfüllen – nach qualifizierter Meldung unverzüglich entfernen. Für Very Large Online Platforms (VLOPs) wie Meta, Google/YouTube und X (Twitter) gelten nach Art. 34, 35 DSA zusätzliche Pflichten zur Risikobewertung und -minderung systemischer Risiken, einschließlich solcher, die von Deepfakes ausgehen.

Internationale Vergleiche

Die internationale Rechtsvergleichung zeigt: Deutschland hinkt bei der spezifischen Regulierung von Deep Fakes hinterher.

Italien hat bereits ein spezielles Deepfake-Gesetz verabschiedet (legge n. 70/2024), das die Verbreitung nicht-konsensualer synthetischer Inhalte mit Freiheitsstrafe bis zu drei Jahren und Geldstrafen bis zu 15.000 Euro ahndet. Besondere Strafschärfungen gelten, wenn Opfer Minderjährige oder Politiker sind.

Vereinigtes Königreich: Der Online Safety Act 2023 (OSA) erfasst in Section 66 explizit nicht-einvernehmliche Deepfakes mit sexuellem Inhalt als eigenständige Straftat mit bis zu zwei Jahren Freiheitsstrafe. Durch den Criminal Justice Act 2024 wurde zudem die bloße Herstellung nicht-konsensualer sexualisierter Deepfakes – unabhängig von der Verbreitung – unter Strafe gestellt. Der UK-Ansatz zeigt, dass eine kohärente strafrechtliche Regulierung, die auch die Herstellungsphase erfasst, verfassungsrechtlich umsetzbar ist.

USA: Mehrere Bundesstaaten (Kalifornien, Texas, New York) haben spezifische „deepfake statutes“ und erweitern „false impersonation statutes“ auf KI-generierte Inhalte Auf Bundesebene gibt es bislang keinen einheitlichen Ansatz.

Praktische Durchsetzungsprobleme im Deepfake Presserecht

Strafverfolgung: Technische Überforderung und Einstellungsquoten

In der Praxis scheitern strafrechtliche Verfahren bei Deep-Fake-bedingter Persönlichkeitsrechtsverletzungen häufig: § 33 KUG hat praktisch keine Bedeutung erlangt § 42 Abs. 2 Nr. 1 BDSG scheitert regelmäßig am Erfordernis der Drittschädigungsabsicht . Ermittlungsbehörden sind mit der technischen Analyse von Deep Fakes – Hashwert-Vergleichen, Metadaten-Forensik, Stilometrie, GAN-Fingerprint-Analyse – vielfach überfordert oder können oder wollen mitunter die Kapazitäten hierfür nict bereit stellen. Verfahren werden daher nach §§ 153, 154 StPO oder nach § 170 Abs. 2 StPO mangels hinreichenden Tatverdachts eingestellt, weil die Urheberschaft des Deep Fakes nicht nachweisbar ist.

Auskunftsansprüche gegen Plattformen: § 21 TDDDG

Das Verfahren nach § 21 Abs. 3 TDDDG ermöglicht Betroffenen, gerichtlich die Herausgabe von Bestandsdaten (Name, E-Mail-Adresse) anonymer Täter zu erwirken. Allerdings: § 21 Abs. 2 TDDDG erfasst nur Bestandsdaten, keine IP-Adressen oder Nutzungsdaten – für Letztere ist eine Strafanzeige der einzige Weg.

Da Meta, Instagram, Google/YouTube und X ihren EU-Sitz in Irland haben, sind grundsätzlich die irischen Gerichte international zuständig (Art. 4 Abs. 1 EuGVVO). Der BGH hat entschieden, dass allein deliktische Ansprøche gegen den unbekannten Täter den Deliktsgerichtsstand des Art. 7 Nr. 2 EuGVVO gegenüber der Plattform nicht begründen (BGH NJW 2024, 514).

Plattformauskünfte enthalten häufig nur eine E-Mail-Adresse ohne Postanschrift, sodass ein zweiter Schritt – eine „Kettenauskunft“ gegen den E-Mail-Anbieter – erforderlich wird.

BGH und NetzDG-Zustellungsbevollmächtigte: Probleme seit dem DSA-Übergang

Nach dem BGH-Beschluss I ZB 10/22 zu NetzDG-Zustellungsbevollmächtigten war die inländische Zustellung von Klagen gegen ausländische Plattformen über den inländischen Zustellungsbevollmächtigten nach § 5 NetzDG möglich. Mit dem Inkrafttreten des DSA und der Ablösung des NetzDG sind neue Rechtsunsicherheiten entstanden: § 5 NetzDG-alt ist weggefallen ; der DSA selbst verpflichtet Plattformen zwar zur Benennung eines gesetzlichen Vertreters in der EU (Art. 13 DSA), aber die Frage, ob Zustellungen gegen Meta øber den deutschen Zustellungsbevollmächtigten möglich sind, ist noch nicht höchstrichterlich geklärt.

DSA Art. 21: Out-of-Court Dispute Settlement als neue Option

Art. 21 DSA eröffnet Betroffenen die Möglichkeit, zertifizierte außergerichtliche Schiedsstellen anzurufen. Diese Einrichtungen können schneller und kostengünstiger als ordentliche Gerichte tätig werden und haben das Recht, Löschungen und Korrekturen gegenüber Plattformen zu verlangen. In Deutschland sind erste solcher Schiedsstellen im Aufbau; ihre praktische Wirksamkeit bleibt noch abzuwarten.

Generelle Durchsetzungsschwierigkeiten gegenüber ausländischen Plattformen

Meta (Facebook/Instagram), Google (YouTube) und X (Twitter/X) haben ihren Hauptsitz außerhalb Deutschlands. Unterlassungstitel müssen in den Sitzstaaten vollstreckt werden. Die Druckmittel, die deutschen Gerichten zur Verfügung stehen, sind begrenzt: Zwangsgeld nach § 890 ZPO ist nur vollstreckbar, wenn deutsches Vermögen der Plattform erreichbar ist – was bei den meisten Plattformen nicht der Fall ist. Die praktische Wirksamkeit von Unterlassungsurteilen hängt daher maßgeblich von der freiwilligen Compliance der Plattformen ab.

Ansprüche bei unzulässigen Deepfakes: Deepfake Presserecht und individuelle Rechtsdurchsetzung

Betroffene von unzulässigen Deep Fakes verfügen über ein differenziertes Anspruchsinstrumentarium.

Unterlassungsanspruch

Der Unterlassungsanspruch ist das zentrale Abwehrinstrument. Er richtet sich sowohl gegen den unmittelbaren Täter als auch gegen Plattformen als mittelbare Störer Grundlage sind §§ 1004 Abs. 1 S. 2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 1 Abs. 1 GG sowie §§ 823 Abs. 2 BGB i.V.m. §§ 22, 23 KUG Die Verletzungshandlung begründet die før einen Unterlassungsanspruch erforderliche tatsächliche Vermutung einer Wiederholungsgefahr (BGH NJW 2021, 3103, Rn. 25) Im Eilverfahren kann durch einstweilige Verfügung (§§ 935 ff. ZPO) eine sofortige Löschungspflicht durchgesetzt werden.

Gegenüber Plattformen ist darauf zu achten, dass die Meldung nach Art. 16 DSA hinreichend qualifiziert ist: Es muss konkret geschildert werden, welche Äußerung oder Darstellung rechtswidrig ist, warum eine Persönlichkeitsrechtsverletzung vorliegt und welcher konkrete Schaden entsteht Die bloße Nennung von Straftatbeständen genügt nicht.

Schadensersatz und Geldentschädigung (

Bei schwerwiegenden Verletzungen des Allgemeinen Persönlichkeitsrechts – und Deepfake-Pornografie, CEO-Fraud-Deepfakes oder politische Verleumdungs-Deepfakes sind regelmäßig schwerwiegend – besteht neben dem Unterlassungsanspruch ein Anspruch auf Geldentschädigung (nicht zu verwechseln mit Schmerzensgeld i.S.v. § 253 BGB) Dieser Anspruch wird unmittelbar aus dem Schutzauftrag der Art. 1 Abs. 1, 2 Abs. 1 GG abgeleitet (BGH NJW 1995, 861 – Caroline von Monaco I) Er setzt voraus:

  • Eine schwerwiegende Persönlichkeitsrechtsverletzung.
  • Die Beeinträchtigung kann nicht in anderer Weise befriedigend aufgefangen werden.
  • Dem Schädiger ist zumindest Fahrlässigkeit vorzuwerfen.

Bei Deep-Fake-Pornografie mit Eingriff in die Intimsphäre liegt regelmäßig eine schwere Persönlichkeitsrechtsverletzung vor, die eine Geldentschädigung rechtfertigt Das LG Frankfurt/M. hat in einem vergleichbaren Fall (12 O 55/22) eine Geldentschädigung von 120.000 Euro zugesprochen, weil eine unüberschaubare Anzahl von Personen unwiderrufliche Einblicke in den Intimbereich der Betroffenen erhalten hatte Bei der Bemessung sind Bedeutung und Tragweite des Eingriffs, Nachhaltigkeit der Rufschädigung, der Grad des Verschuldens sowie Präventionsgesichtspunkte zu berücksichtigen (BGH NJW 1995, 861; BGH VersR 2022, 830, 834).

Daneben kann materieller Schadensersatz nach §§ 823 Abs. 1, 249 ff. BGB geltend gemacht werden, etwa für entgangene Einnahmen (z.B. bei Influencern oder Künstlern), Arztkosten, Kosten der Rechtsverfolgung sowie bei kommerzieller Nutzung des Bildnisses ein bereicherungsrechtlicher Anspruch nach § 812 BGB (Lizenzanalogie).

Löschungsanspruch / Beseitigungsanspruch

Der Beseitigungsanspruch richtet sich auf die Löschung des rechtswidrigen Inhalts von allen Speichermedien und Plattformen Wenn ein Nutzerprofil ausschließlich dazu eingerichtet wurde, rechtsverletzende Deep-Fake-Inhalte zu verbreiten, kann auch ein Anspruch auf Löschung des gesamten Nutzerkontos bestehen (OLG Frankfurt, GRUR-RS 2025, 14503).