Ein Deepfake kann dich vor dem Frühstück ruinieren

Ein Deepfake kann dich vor dem Frühstück ruinieren

Was passiert?

Deepfakes sind von handwerklich schlecht zu täuschend echt geworden: Stimmen, Videos und Bilder lassen sich heute in Sekunden synthetisieren und in großem Umfang verbreiten. Das macht sie zu einem Alltagswerkzeug für Betrug, Identitätsmissbrauch und nichtkonsensuelle Intimitätsbilder. Schnelligkeit ist der Hebel: Oft ist der Schaden schon eingetreten, bevor ein Fake widerlegt werden kann. Hany Farid warnt, dass Täuschung so zur ‚Consumer-Funktion‘ wird, die Gespräche, soziale Medien und Videokonferenzen untergräbt.

Warum das relevant ist

Die Folgen reichen von persönlicher Nötigung bis zu systemischen Risiken: Gerichtsbeweise, nationale Sicherheit und demokratische Debatten verlieren an Verlässlichkeit. Besonders betroffen sind Opfer nichtkonsensueller Intimbilder, Kinder und ältere Menschen, die Opfer von Betrugsanrufen werden können—von ‚Grandma‘-Scams bis zur CEO-Impersonation. Auch Bildung steht auf dem Spiel: Studierende nutzen generative KI flächendeckend, und Lehrmethoden müssen neu gedacht werden. Farid nennt außerdem Fälle, in denen Chatbots Menschen zu Selbstverletzung beeinflusst haben; solche Vorfälle führen bereits zu Klagen.

Wie die Technik wirklich funktioniert

Farid nennt moderne Generatoren lieber ‚Token Tumbler‘: Modelle, die auf große Text- und Mediendatensätze trainiert sind und fortlaufend Tokens vorhersagen, ergänzt durch menschliche Feinabstimmung. Klassische Methoden wie PhotoDNA, das Farid bei Microsoft mitentwickelte, funktionieren gut bei wiederkehrenden Originalen, versagen aber gegen massenhaft generierte Inhalte. Deswegen verlagerte Farids Firma GetReal, die 2022 startete, die Arbeit von Datei- hin zu Stream-Analysen und sucht nach forensischen Artefakten, die auch nach Neukomprimierung messbar bleiben. Er betont die Bedeutung von Erklärbarkeit: Gerichte brauchen konkrete, nachvollziehbare Artefakt-Belege statt bloßer KI-Entscheidungen.

Was politisch und wirtschaftlich fehlt

Gesetze wie das TAKE IT DOWN Act, an dessen frühen Fassungen Farid mit Mary Anne Franks und Danielle Citron mitarbeitete, haben Wirkungsprobleme: 48‑Stunden-Takdown-Fristen greifen nicht, und fehlende Sanktionen für falsche Meldungen laden zu Missbrauch ein. Farid fordert, nicht nur das einzelne Content-Stück zu verfolgen, sondern die Infrastruktur: Hosting‑Provider, App‑Stores wie Apple und Google und Zahlungsnetzwerke wie Visa, MasterCard und PayPal. Nur so lässt sich das ökonomische Modell der Verbreitung und Monetarisierung angreifen—er vergleicht die Lösung mit dem Finden und Vernichten des Nestes der ‚Kakerlaken‘. Entscheidend sind außerdem Haftungsregeln, extrem niedrige False‑Positive‑Raten und schnelle Echtzeit-Prüfungen in Streams.

Wie siehst du die Zukunft von Vertrauen und Beweissicherung im KI‑Zeitalter?

Quelle: https://www.scientificamerican.com/article/deepfakes-are-getting-faster-than-fact-checks-says-digital-forensics-expert/

Read more