Wenn Deepfake-Röntgenbilder Ärzte täuschen: Die Gefahr aus der KI‑Werkstatt

Wenn Deepfake-Röntgenbilder Ärzte täuschen: Die Gefahr aus der KI‑Werkstatt

Kernbefund: Deepfakes täuschen Experten

Am 24. März veröffentlichte das Journal Radiology eine Studie unter Leitung von Mickael Tordjman (Icahn School of Medicine at Mount Sinai), die 264 Röntgenaufnahmen untersuchte – je zur Hälfte echt und KI‑generiert. 17 Radiologinnen und Radiologen aus 12 Institutionen in sechs Ländern bewerteten die Bilder; ohne Vorwarnung erkannten sie nur 41 Prozent der synthetischen Aufnahmen, mit Hinweis auf Deepfakes stieg die Trefferquote auf 75 Prozent. Auch vier multimodale LLMs (darunter GPT‑4o, GPT‑5, Gemini 2.5 Pro und Llama 4 Maverick) lagen nur zwischen 57 und 85 Prozent Genauigkeit. Für mit RoentGen erzeugte Thoraxaufnahmen reichten die Erkennungsraten der Menschen von 62 bis 78 Prozent; die KI‑Modelle schwankten zwischen 52 und 89 Prozent.

Warum das für Patienten und Kliniken relevant ist

Die Studie macht deutlich, dass gefälschte medizinische Bilder nicht nur akademisches Problem sind: Ein fingierter Bruch oder manipuliertes Thoraxbild könnte in Gerichtsverfahren, bei Versicherungsansprüchen oder in Klinikakten massiven Schaden anrichten. Tordjman warnt vor einem hohen Risiko für Betrug und Cyberangriffe, etwa wenn Angreifer synthetische Bilder in Krankenhausnetzwerke einpflegen. Die Vertrauenswürdigkeit der digitalen Patientenakte stünde damit auf dem Spiel – mit direkten Folgen für Diagnose, Therapieplanung und rechtliche Auseinandersetzungen.

Technik und Erkennungsmerkmale

Die untersuchten Fälschungen stammten unter anderem von ChatGPT‑basierten Generatoren und von RoentGen, einem offenen Diffusionsmodell aus Stanford. Forscherinnen beobachteten charakteristische Muster in Deepfakes: Knochen wirken oft zu glatt, Wirbelsäulen unnatürlich gerade, Lungen ungewöhnlich symmetrisch und Frakturen auffallend sauber und einseitig. Interessanterweise korrelierte die Berufserfahrung nicht automatisch mit besserer Erkennungsfähigkeit; Fachleute für Muskuloskelettales schnitten jedoch deutlich besser ab als andere Sub‑Spezialisten.

Chancen, Gegenmaßnahmen und nächste Schritte

Die Autoren empfehlen technische Schutzmaßnahmen wie unsichtbare Wasserzeichen in Bildern und kryptografische Signaturen, die beim Zeitpunkt der Aufnahme an den zuständigen Technologen gebunden sind, sowie Trainingsdaten und Erkennungswerkzeuge für klinisches Personal. Als Bildungsangebot stellten die Forscher ein kuratiertes Deepfake‑Datenset mit interaktiven Quizzen bereit, um Sensibilität und Routine zu fördern. Zugleich warnen sie, dass die nächste Stufe bereits bevorstehen könnte: synthetische 3D‑Darstellungen wie CT und MRT würden die Herausforderungen noch verschärfen.

Würdest du einer digitalen Röntgenaufnahme ohne prüfbare Authentifizierung vertrauen?

Quelle: https://www.sciencedaily.com/releases/2026/03/260326011452.htm

Read more

Wie Yahoo-Cookies Ihre Daten nutzbar machen — und wie Sie eingreifen können

Wie Yahoo-Cookies Ihre Daten nutzbar machen — und wie Sie eingreifen können

Was ist passiert? Die Yahoo-Familie — inklusive Yahoo, Engadget und dem Werbedienst Yahoo Advertising — setzt Cookies und Web‑Storage ein, um Seiten auszuliefern, Nutzer zu authentifizieren, Sicherheitsmaßnahmen durchzuführen und Spam zu verhindern. Zur Messung werden Besucherzahlen, Gerätetypen (iOS oder Android), Browser und Besuchsdauer gesammelt; diese Messdaten werden aggregiert und laut Angaben

By Admin FoxifAI