Pentagon stempelt Anthropic als Lieferkettenrisiko — Streit um Claude eskaliert
Kurzfassung: Was entschieden wurde
Das Pentagon teilte am Donnerstag mit, dass es Anthropic und dessen Produkte "wirksam sofort" als Lieferkettenrisiko eingestuft und die Unternehmensführung offiziell informiert hat. Präsident Donald Trump und Verteidigungsminister Pete Hegseth hatten dem Unternehmen zuvor vorgeworfen, die nationale Sicherheit zu gefährden, nachdem Anthropic Schutzregeln gegen Massenüberwachung und autonome Waffen beibehalten hatte. Anthropic-CEO Dario Amodei kündigte an, die Entscheidung juristisch anzufechten, und warnte vor Unterbrechungen für Soldatinnen und Soldaten, falls Werkzeuge wie Claude plötzlich wegfallen. Trump setzte dem Militär eine Frist von sechs Monaten, Claude aus den Diensten zu entfernen, was bereits zu Vertragsanpassungen führte.
Warum das wichtig ist
Die Einstufung kann Regierungskontraktoren faktisch zwingen, Claude nicht mehr in Verteidigungsprojekten einzusetzen und hat bereits Firmen wie Lockheed Martin veranlasst, Alternativen zu prüfen. Die Maßnahme nutzt eine Regel, die ursprünglich dazu gedacht war, Bedrohungen durch ausländische Gegenspieler einzudämmen, gegen ein US-Unternehmen — das sorgt für breite Kritik in Politik und Sicherheitskreisen. Senatorin Kirsten Gillibrand und eine Gruppe ehemaliger Geheimdienst- und Militärvertreter, darunter Ex-CIA‑Chef Michael Hayden, sprechen von einem gefährlichen Präzedenzfall. Zugleich geht es um unmittelbare operative Fragen: Wie hält das Militär Zugang zu leistungsfähigen KI-Werkzeugen aufrecht, ohne Kontrollregeln aufzugeben?
Technischer und strategischer Hintergrund
Anthropic hatte Einschränkungen formuliert, um den Einsatz seiner Modelle für Massenüberwachung und vollständig autonome Waffensysteme zu begrenzen; das Unternehmen betont, diese Verbote beträfen hochrangige Anwendungsgebiete, nicht taktische Entscheidungsprozesse. Das Pentagon argumentiert dagegen, ein Anbieter dürfe sich nicht in die Befehlskette einbauen, indem er die "gesetzmäßige Verwendung" einer kritischen Fähigkeit beschränkt. Claude ist bereits in zahlreiche militärische und sicherheitsrelevante Plattformen integriert, weshalb die Entscheidung direkte Auswirkungen auf laufende Projekte hat. Parallel dazu kündigte OpenAI an, in klassifizierten Umgebungen ChatGPT als Ersatz bereitzustellen — ein Deal, dessen Abschluss OpenAI-Chef Sam Altman später als übereilt bezeichnete.
Chancen, Risiken und Marktfolgen
Für Anthropic haben sich die Fronten verschoben: Während einige Verteidigungsaufträge verloren gehen, verzeichnete das Unternehmen einen Nutzerboom — mehr als eine Million Anmeldungen pro Tag und eine Spitzenposition in Apples App‑Store in über 20 Ländern. Die Kontroverse könnte amerikanische KI‑Firmen politisch stärker an die kurze Leine legen und Entwickler dazu bringen, Nutzungsbeschränkungen klarer zu dokumentieren oder zu überdenken. Kritiker warnen, eine solche Zwangsmaßnahme schade der Innovationsfähigkeit und schwäche die Beschaffungsoptionen des Militärs; Befürworter sehen in der Auseinandersetzung jedoch eine notwendige Debatte über Ethik, Kontrolle und die Rolle privater Anbieter in sicherheitsrelevanten Anwendungen.
Wie siehst du die Zukunft von militärisch genutzter KI?
Quelle: https://www.npr.org/2026/03/06/g-s1-112713/pentagon-labels-ai-company-anthropic-a-supply-chain-risk