Sora, Deepfakes und das Copyright-Chaos: Warum OpenAIs Regeln Lücken lassen
Einführung: Ein vielversprechendes Tool mit Sprengstoff
Sora will Videocreator:innen das schnelle Erstellen kurzer, KI-generierter Clips ermöglichen — ideal für TikTok-ähnliche Formate. OpenAI hat einige Schutzmaßnahmen eingebaut: Bilder mit erkennbaren Gesichtern werden abgewiesen, alle generierten Videos tragen ein Wasserzeichen und die Plattform verbietet Deepfakes lebender öffentlicher Personen. Auf den ersten Blick klingt das nach verantwortungsvollem Design. Doch bei genauerem Hinsehen klaffen Lücken, die schnell zum Problem werden können.
Was Sora blockiert — und was nicht
Die Kernregeln: 1) Inspiration-Bilder mit erkanntem Gesicht werden abgelehnt, sofern die abgebildete Person nicht zustimmt; 2) Videos bekommen ein Wasserzeichen; 3) Deepfakes lebender öffentlicher Personen sind verboten. Trotzdem lassen diese Regeln große Grauzonen offen: OpenAI erlaubt die Erzeugung historischer Figuren und verstorbener Celebrities, und der Schutz gilt offenbar nicht gleichermaßen bei urheberrechtlich geschützten Figuren (z. B. Zeichentrickcharaktere). Nutzer konnten bereits Clips mit Ronald McDonald, Simpsons-Figuren, Pikachu oder Patrick Star erstellen.
Die überraschende Ausnahme: Tote Promis und 'historische Figuren'
Während lebende Personen geschützt werden sollen, ist die Darstellung verstorbener Prominenter offenbar erlaubt — OpenAI bezeichnet sie als historische Figuren. Das führt zu realistisch wirkenden Nachbildungen von Stimmen und Mimik Verstorbener, teils sogar mit lizenzierter Musik unterlegt. Für viele Beobachter ist das ethisch heikel: Angehörige, Fans und Öffentlichkeit müssen sich fragen, ob der digitale Wiederauftritt Verstorbener willkommen oder ausbeuterisch ist.
Copyright-Opt-out statt Opt-in: Warum das rechtlich brisant ist
Besonders problematisch ist das Vorgehen gegenüber Rechteinhabern: Statt vorab Erlaubnis einzuholen, setzt OpenAI auf ein Opt-out — Rechteinhaber müssen aktiv widersprechen, damit ihre Werke nicht verwendet werden. Experten wie Jason Bloom (Haynes Boone) weisen darauf hin, dass das rechtlich ungewöhnlich ist: Nach klassischer Urheberrechtslogik muss die Nutzung fremder Werke in der Regel genehmigt werden. Stanford-Professor Mark Lemley sieht Sora deshalb als Einladungsgrund für Klagen. Praktisch bedeutet das: Markeninhaber wie Disney oder Nintendo könnten schnell mit Rechtsmitteln reagieren.
Community- und Juristenstimmen: Hitze auf beiden Seiten
Die Kommentarsektion (Slashdot) spiegelt die Spannungen: Einige warnen vor einer Flut von Klagen („Sued into oblivion“), andere diskutieren, ob die Nutzer oder der Plattformbetreiber haftbar sind. Manche sehen in KI-generierter Kunst eine Chance und plädieren für Lizenzmodelle oder das Erheben von Tantiemen statt pauschaler Sperren. Wieder andere kritisieren den Qualitätsverlust auf Plattformen wie TikTok, wenn synthetische Clips die Feeds überschwemmen.
Mögliche Folgen: Klagen, Lizenzlösungen und technische Gegenmaßnahmen
Kurzfristig sind mehrere Szenarien denkbar: 1) Schnellere rechtliche Auseinandersetzungen von großen Rechteinhabern; 2) OpenAI und Konkurrenten verschärfen die Richtlinien (bessere Erkennung, klarere Verbote); 3) Marktmechanismen wie Lizenz- oder Royalty-Modelle entstehen — Plattformen könnten Rechteinhaber bezahlen, statt auf Opt-out zu setzen; 4) Technische Pfade: fortschrittlichere Wasserzeichen, Metadatenpflichten oder technische Sperren für bekannte Markenfiguren. Praktisch bleibt die Durchsetzbarkeit schwierig: Kurzclips sind oft so kurz, dass Urheberrechtsverletzungen juristisch schwer nachzuverfolgen sind — und Nutzer, die Regeln umgehen wollen, werden immer kreativer.
Was das für Nutzer und Kreative bedeutet
Für Content-Ersteller heißt das: Vorsicht ist angebracht. Das Erstellen von Clips mit bekannten Figuren oder nachgeahmten Stimmen kann rechtliche Risiken bergen, selbst wenn die Plattform momentan nichts blockiert. Kreative sollten sich über Rechteauftritte informieren, im Zweifel Lizenzen einholen oder auf eigene, originelle Konzepte setzen. Markeninhaber wiederum müssen entscheiden, ob sie durch Verbote, zahlungspflichtige Lizenzen oder Kooperationen besser fahren.
Fazit: Innovation trifft auf Rechts- und Ethik-Fragen
Sora zeigt die Doppelrolle von KI-Tools: Sie eröffnen kreative Möglichkeiten, schaffen aber gleichzeitig neue juristische und ethische Herausforderungen. OpenAIs Maßnahmen sind ein Anfang — aber Ausnahmen wie die Erlaubnis für tote Prominente und das Opt-out bei Copyright sorgen dafür, dass die Diskussion erst richtig beginnt. Ob durch Gerichte, Politik oder Marktmechanismen: Es ist sehr wahrscheinlich, dass sich in kurzer Zeit spürbare Veränderungen in den Richtlinien und im Umgang mit Urheberrecht ergeben werden.
Was denkst du? Schreib einen Kommentar, teile den Beitrag und abonniere unseren Newsletter für Updates zu Sora, Deepfakes und den nächsten juristischen Schachzügen der Tech-Branche.