Diebstahl ist kein Fair Use: Wie KI-Unternehmen Urheberrechte auf Spiel setzen – und warum 2025 zur Zeitenwende wird

Diebstahl ist kein Fair Use: Wie KI-Unternehmen Urheberrechte auf Spiel setzen – und warum 2025 zur Zeitenwende wird

Worum es wirklich geht

Viele KI-Unternehmen haben ihre Modelle mit allem gefüttert, was sie online finden konnten – ohne Erlaubnis und ohne Bezahlung. Ihre Verteidigung: Das Training sei „transformativ“ und damit von Fair Use gedeckt. Der Autor, Fotojournalist David Carson (JSK Fellow an der Stanford University), widerspricht: Wenn das Ziel ist, Inhalte zu erzeugen, die mit Originalen in denselben Märkten konkurrieren, ist das weder fair noch transformative Nutzung – es ist kommerzielle Verwertung fremden Eigentums.

Das Beispiel, das alle schlucken ließ

Carson zeigt ein besonders eindrückliches Beispiel: In nur sechs Prompts generierte ChatGPT ein Bild, das auffällig dem ikonischen Ferguson-Foto seines Kollegen Robert Cohen (Pulitzer-prämiert, 2015) gleicht – bis hin zu markanten Bildelementen. Als er beide Bilder nebeneinander bei einem Vortrag zeigte, reagierte das Publikum hörbar schockiert. Für ihn ist das ein praktischer Beleg: Trainingsdaten und Modelle können Outputs produzieren, die urheberrechtlich geschützte Werke faktisch nachzeichnen.

Die Rechtsprechung zieht die Notbremse

2025 verdichten sich juristische Signale gegen den großzügigen Fair-Use-Ansatz der KI-Branche: 1) Thomson Reuters vs. Ross Intelligence: Ein Bundesgericht in Delaware wies die Fair-Use-Argumentation des KI-Startups ab – ein wichtiger Etappensieg für Rechteinhaber. 2) Meta unter Druck: Ein Amicus-Brief von Urheberrechtsprofessoren stützt klagende Autorinnen und Autoren und argumentiert, Trainingsnutzung sei nicht transformativ, wenn sie zur Erstellung konkurrierender Werke für kommerzielle Zwecke dient. 3) New York Times vs. OpenAI/Microsoft: Die Klage dokumentiert Fälle, in denen ChatGPT lange Passagen aus Times-Artikeln nahezu wortgleich ausgibt. 4) Getty Images vs. Stability AI: Als Beleg präsentierte Getty KI-Outputs mit verzerrten Getty-Wasserzeichen – ein starkes Indiz, dass geschützte Bilder im Training stecken.

Lobbyarbeit statt Lizenz – ein riskanter Move

Die Branche weiß, wie groß die Haftungsrisiken sind. Entsprechend drängten OpenAI und Google in Stellungnahmen zur US-Regierungsarbeit an einem KI-Aktionsplan auf freie Nutzung urheberrechtlich geschützter Inhalte für Trainingszwecke. Parallel schließen manche Verlage Lizenzdeals (z. B. AP, Wall Street Journal, Hearst, Lee Enterprises). Doch Transparenz fehlt – und Medienhäuser könnten ihre Inhalte unter Wert verkaufen. Die Medienforscherin Courtney C. Radsch bringt es auf den Punkt: Ohne stetigen Strom hochwertiger, menschgemachter Informationen werden KI-Modelle wertlos. Wer Content schafft, hat mehr Verhandlungsmacht, als vielen bewusst ist.

Warum gerade Nachrichtenhäuser verlieren könnten

Carson warnt vor einem bekannten Muster: Tech-Unternehmen zapfen Inhalte an, bauen damit milliardenschwere Produkte – und die Verlage bleiben finanziell geschwächt zurück. Historische Parallelen gibt es genug (Online-Werbemarkt, „Pivot to Video“). Sein Bild: KI-Firmen als „Vampire“, die Verlage aussaugen und mit den Gewinnen davonzischen, während Redaktionen ums Überleben kämpfen.

Tools gegen Missbrauch: Content Credentials & Co.

Ein Hoffnungsschimmer ist die wachsende Nutzung von Content Credentials (C2PA). Sie ermöglichen Nutzungs- und Herkunftskennzeichnungen – inklusive einer „Bitte nicht zum Training verwenden“-Markierung. Perfekt ist das nicht: Es verhindert Missbrauch nicht automatisch, schafft aber Nachverfolgbarkeit und kann Beweise sichern. Für Redaktionen und Kreative heißt das: Metadaten konsequent pflegen, Rechte markieren, und Verstöße dokumentieren. Parallel lohnt sich: klare Vertragsklauseln, kollektive Verhandlungen, und – wo nötig – der Gang vor Gericht.

Doppelmoral? Wenn Big Tech selbst Opfer ist

Ausgerechnet OpenAI-CEO Sam Altman beklagte öffentlich, ein Wettbewerber habe OpenAI-Technologie unrechtmäßig kopiert. Carson kontert sinngemäß: Genau dieses Gefühl kennen Kreative seit Jahren – wenn ihre Werke ohne Zustimmung zum KI-Training genutzt werden. Wer Schutz für eigenes IP einfordert, muss ihn auch anderen gewähren.

Fazit: Zahlen statt zaudern

Die Linie wird immer klarer: Massenscraping und regurgitierende Outputs sind juristisch angreifbar und ökonomisch unfair. Creator, Redaktionen und Rechteinhaber verdienen eine angemessene Vergütung – nicht nur Einmalzahlungen, sondern tragfähige, transparente Lizenzmodelle. Oder, um es mit einem Filmzitat zu sagen, das Carson anführt: „F*ck you. Pay me.“

Was denken Sie: Braucht es neue Gesetze – oder reichen konsequente Lizenzen und Urteile? Teilen Sie Ihre Sicht in den Kommentaren und unterstützen Sie Medienhäuser, die in Qualitätsjournalismus investieren.

Quelle: https://jskfellows.stanford.edu/theft-is-not-fair-use-474e11f0d063

Read more

„Akzeptieren“ oder „Ablehnen“? Was Yahoos Cookie-Hinweis tatsächlich bedeutet

„Akzeptieren“ oder „Ablehnen“? Was Yahoos Cookie-Hinweis tatsächlich bedeutet

Kurz zusammengefasst: Was der Hinweis sagt Der Cookie-Hinweis von Yahoo (im vorliegenden Fall in italienischer Sprache) informiert Besucher, dass Yahoo und zugehörige Marken Cookies und ähnliche Technologien verwenden. Kernpunkte: Cookies dienen zum Betreiben der Seiten und Apps, zur Authentifizierung und Sicherheit, zur Messung von Nutzung (z. B. Besuchszahlen, Gerätetyp, Verweildauer)

By Admin FoxifAI