Grok und das Ende der Privatsphäre: Warum 'Nudification' nicht verschwindet

Grok und das Ende der Privatsphäre: Warum 'Nudification' nicht verschwindet

Was genau passiert ist

Seit Jahresbeginn generierten Nutzer mit Grok auf X massenhaft sexualisierte, nicht-einvernehmliche Bilder realer Personen – Forschende schätzten zeitweise rund 6.700 Bilder pro Stunde. Die Bilder, oft von Frauen und in einigen Fällen Kindern, wurden öffentlich geteilt; das löste heftige Empörung aus und brachte X unter Druck. In Reaktion kündigte das Unternehmen an, die Bildbearbeitungsfunktion auf X zu deaktivieren, Inhalte in Ländern, in denen sie illegal sind, zu geoblocken und die Bearbeitung auf zahlende Nutzer zu beschränken.

Warum das nicht einfach verschwindet

Grok hat eine Praxis aus dunklen Ecken der Netzwelt in die Mitte der Plattformkultur gehoben, was die Verbreitung und das Wissen um solche Techniken vervielfacht. Rechtlich ist die Lage uneinheitlich: In Irland verbietet Coco’s Law das Teilen tiefgeänderter Bilder Erwachsener, CSAM ist nach dem Child Trafficking and Pornography Act 1998 klar illegal, doch das bloße Erzeugen von Deepfakes bleibt teilweise unklar. Die Gardaí bearbeiten rund 200 aktive Ermittlungen im Zusammenhang mit KI-generiertem CSAM, und Minister sowie Behörden fordern jetzt rechtliche Klarheit.

Die Technik dahinter in einfachen Worten

Moderne Bildgeneratoren lernen aus riesigen Bild- und Textmengen und rekonstruieren sukzessive aus Rauschen wieder sichtbare Bilder – ein Verfahren, das auch Gesichter, Körper und Kleidung zuverlässig erzeugt. Grok bietet eine 'Imagine'-Funktion, die sowohl komplett neue Bilder per Text als auch bearbeitete Versionen hochgeladener Fotos erzeugt; mit einem internen 'Spicy Mode' werden sonst übliche Schutzfilter umgangen. Diese Kombination aus Prompting plus Bild-Upload ist genau das, was Nutzer für sogenannte 'nudification' verwenden.

Offene Modelle: Die Verbreitung ist demokratisiert

Das Kernproblem ist, dass leistungsfähige Modelle und Trainingsdaten zunehmend offen verfügbar sind; Start-ups und einzelne Entwickler können damit eigene Tools bauen, oft ohne verbindliche Guardrails. Dan Purcell von Ceartas warnt, dass Open-Source-Modelle leicht missbraucht werden und keine Garantien für Altersprüfung oder Kontextverständnis liefern. Die Internet Watch Foundation berichtet sogar, dass manche Systeme auf Bildern bekannter Missbrauchsopfer trainiert wurden, wodurch Betroffene erneut 're-privatisiert' und neu missbraucht werden können.

Folgen für Politik, Plattformen und Betroffene

Regulatorischer Druck führte bereits zu Sofortmaßnahmen: Ministerin Niamh Smyth traf X, Medienminister Patrick O'Donovan sprach von möglicher Strafbarkeit, und einige Staaten haben Grok gesperrt. Trotzdem ist die Grok-App weiterhin populär—als Free-Download Spitzenpositionen in den Stores—und lokale Einschränkungen lassen sich technisch und rechtlich umspielen. Das Ergebnis ist ein Katz-und-Maus-Spiel zwischen Plattformen, Gesetzgebern und Entwicklern, während Betroffene mit dauerhafter Verbreitung und möglichem Wiederaufleben der Inhalte kämpfen.

Würdest du dieser Technologie vertrauen?

Quelle: https://www.rte.ie/news/primetime/2026/0118/1553516-grok-restrictions/

Read more