Wenn die KI dem Chef widerspricht: Truth Socials Chatbot korrigiert Trumps Falschbehauptungen
Was ist passiert?
Im November 2025 berichtete Snopes, dass der Chatbot von Truth Social, der von der KI‑Engine Perplexity betrieben wird, auf Fragen sachliche Antworten liefert — selbst dann, wenn diese Antworten Aussagen widerlegen, die Donald Trump zuvor gemacht hatte. Konkret nannte die Berichterstattung Themen wie die gestiegenen US‑Lebensmittelpreise und Behauptungen über den Ausgang der Präsidentenwahl 2020. Autor Jordan Liles dokumentierte die Entwicklung und machte klar: Die KI liefert Fakten, die nicht immer mit Trumps Darstellungen übereinstimmen.
Warum ist das bemerkenswert?
Truth Social ist die Social‑Media‑Plattform des ehemaligen Präsidenten: dass ausgerechnet auf ihr ein System Fakten liefert, die seine Behauptungen in Frage stellen, sorgt für Aufsehen. Es ist ungewöhnlich — und politisch brisant — wenn eine Plattform, die oft als verlängerter Arm einer Persönlichkeit wahrgenommen wird, eine unabhängige, faktenbasierte Antwortmaschine betreibt. Das wirft Fragen zu Verantwortung, Moderation und zum Verhältnis von Plattform und Besitzer auf.
Wie funktioniert der Chatbot (grob erklärt)?
Der Bot nutzt die Perplexity‑Engine. Solche Systeme kombinieren Sprachmodelle mit Retrieval‑Mechanismen: sie durchsuchen aktuelle Quellen, fassen Informationen zusammen und geben Antworten, oftmals mit Verweisen auf die Fundstellen. Das macht sie besser geeignet, auf konkrete Faktenfragen zu antworten als ein rein statisches Sprachmodell ohne Online‑Anbindung. Trotzdem gilt: Die Qualität der Antwort hängt von den zugrundeliegenden Quellen, der Frageformulierung und dem Systemdesign ab.
Konkrete Themen, die der Bot ansprach
Laut Bericht lieferte der Chatbot faktenbasierte Antworten zu mehreren sensiblen Themen. Zwei Beispiele, die Snopes hervorhob: Die Entwicklung der US‑Lebensmittelpreise — ein Thema mit unmittelbarer wirtschaftlicher Relevanz für viele Wähler — und Fragen zur Präsidentschaftswahl 2020, ein politisch hoch aufgeladenes Feld voller Desinformation. Der Bot stellte demnach Sachverhalte dar, die in Teilen Trumps Aussagen widersprachen.
Welche Folgen kann das haben?
Kurzfristig erzeugt dieses Verhalten Aufmerksamkeit und Diskussion: Nutzer fragen sich, ob sie dem Bot mehr vertrauen sollten als menschlichen Statements. Politisch kann es Spannungen erzeugen — etwa zwischen Plattformbetreibern, Nutzern und politischen Akteuren. Auf längere Sicht zeigt der Fall, wie KI auf Plattformen als Korrektiv fungieren kann, aber auch, wie wichtig Transparenz, Quellenangabe und klare Richtlinien sind, damit Nutzer verstehen, warum eine KI eine Aussage korrigiert.
Grenzen und Risiken solcher Chatbots
Trotz der nützlichen Funktion als Faktenhelfer sind KI‑Chatbots nicht unfehlbar. Sie können veraltete oder fehlerhafte Quellen nutzen, Antworten missverständlich formulieren oder durch systemische Verzerrungen beeinflusst sein. Außerdem besteht das Risiko, dass Betreiber die Systeme konfigurieren oder einschränken, sodass unbequeme Fakten abgeschwächt werden. Nutzer sollten daher die Antworten mit Skepsis prüfen und auf Quellenangaben achten — gerade bei politisch sensiblen Fragen.
Was bedeutet das für Medienkompetenz und Öffentlichkeit?
Der Vorfall ist ein Lehrstück: KIs können Recherche massiv erleichtern und Falschinformationen entgegenstehen — aber sie ersetzen keine kritische Medienkompetenz. Für Leser heißt das: Auf Quellen schauen, Kontext suchen und mehrere Informationsquellen vergleichen. Für Plattformbetreiber bedeutet es, transparente Regeln und Mechanismen zur Qualitätssicherung zu etablieren, damit die Öffentlichkeit Vertrauen in solche Systeme entwickeln kann.
Kurzfazit
Der Perplexity‑gestützte Chatbot auf Truth Social ist mehr als ein Feature‑Gimmick: Er zeigt, wie KI in Echzeit Fakten liefern und damit auch mächtige Narrative infrage stellen kann. Gleichzeitig erinnert der Fall daran, dass Technologie kein Allheilmittel gegen Desinformation ist — sie ist ein Werkzeug, dessen Wirkung von Design, Quellenlage und der verantwortlichen Nutzung abhängt.
Was denkst du? Lies vorsichtig, frage nach Quellen und teile deine Einschätzung unten: Wie sehr vertraust du einer KI als Fakteninstanz — besonders, wenn sie Aussagen eines mächtigen Akteurs korrigiert? Abonniere unseren Newsletter für mehr Analysen zu KI, Medien und Politik.
Quelle: https://www.snopes.com//fact-check/trump-truth-social-ai/