Wie KI Wikipedia ausnutzt — und warum die Wissenschaft schuld trägt

Wie KI Wikipedia ausnutzt — und warum die Wissenschaft schuld trägt

Was geschehen ist

Wikipedia feiert sein 25‑jähriges Bestehen – doch die Gratulationen überlagern eine ernste Frage: Viele generative KI‑Modelle trainieren stark auf Wikipedia‑Inhalten und liefern daraus sofort Antworten, meist ohne Quellenangaben. Seit 2005 ist bekannt, dass Wikipedia in Genauigkeit mit der Encyclopaedia Britannica vergleichbar ist (Nature 438, 900–901; 2005), und die Enzyklopädie existiert in mehr als 300 Sprachversionen. Der langjährige Einsatz von Freiwilligen macht Wikipedia einzigartig; dennoch hat die akademische Gemeinschaft diese Wissenscommons über Jahrzehnte vernachlässigt. D. J., der bis zum 1. Januar 2025 ehrenamtlich im Board der Wikimedia Foundation saß, warnte vor genau diesem parasitären Verhältnis zwischen KI und Wikipedia.

Warum das wichtig ist

Wikipedia bietet radikale Transparenz: jede Änderung und jede Diskussion ist protokolliert und zugänglich – ein Gegenmodell zu Black‑Box‑Algorithmen. Wenn Chatbots fertige, angeblich autoritäre Antworten liefern, sinkt die Motivation, die Originalseiten zu besuchen oder freiwillig zu bearbeiten. Viele Lehrende verbieten Studierenden, Wikipedia zu zitieren, während Studierende der Plattform vertrauen; zugleich zeigen Studien, dass wissenschaftliche Arbeiten nach einer Wikipedia‑Erwähnung oft mehr Zitationen und öffentliche Reichweite gewinnen. Das macht aus einer akademischen Geringschätzung nicht nur eine moralische, sondern auch eine strategische Fehlleistung.

Technischer und strategischer Hintergrund

Große Sprachmodelle werden mit riesigen Datensätzen trainiert, zu denen Wikipedia aufgrund Klarheit, Umfang und Lizenzlage besonders häufig gehört. Diese Modelle reproduzieren Wissen, liefern aber weder vollständige Quellen noch die Debatten, die hinter Einträgen stehen – und sie sind anfällig für Halluzinationen. Menschen hingegen können Archivmaterial aufspüren, Orte dokumentieren, kulturelle Kontexte einordnen und komplexe Neutralitäts‑ oder Verifizierungsfragen führen, Fähigkeiten, die KI derzeit nicht in gleicher Tiefe ersetzt. In einer Zeit zunehmender Desinformation und undurchsichtiger Empfehlungs‑Algorithmen ist gerade die menschliche, nachvollziehbare Redaktion ein kritischer Wert.

Folgen, Risiken und Chancen

Bleibt das jetzige Ungleichgewicht bestehen, sinkt die Anreizstruktur für Freiwillige: Warum Arbeit investieren, wenn KI‑Produkte Inhalte konsumieren, ohne zurückzugeben? Das könnte die Qualität und Vielfalt der freien Enzyklopädie langfristig schwächen – besonders für weniger dokumentierte Regionen oder Sprachen. Gleichzeitig bietet die Situation eine Chance für die Wissenschaft: aktive Beteiligung, Anerkennung von Wikipedia als legitime Quelle und institutionelle Unterstützung könnten die Plattform stärken. Wenn Akademiker jetzt handeln und Wikipedia ernsthaft unterstützen, ließe sich die Wissenscommons vor dem schleichenden Entzug durch KI schützen.

Wie siehst du die Zukunft von Wikipedia in der KI‑Ära?

Quelle: https://www.nature.com/articles/d41586-026-00075-0

Read more