Pentagon sperrt Anthropic aus: Streit um KI-Wächter und Militärverträge
Was genau geschehen ist
Am 3. März erklärte Verteidigungsminister Pete Hegseth Anthropic zum ‚Supply‑Chain‑Risk‘, nachdem das Unternehmen sich weigerte, Schutzvorkehrungen gegen den Einsatz seiner KI für autonome Waffen und Überwachung zu entfernen. Anthropic reichte am 9. März Klage ein und verlangt vorläufigen Rechtsschutz gegen die Pentagon‑Entscheidung. In einer Gerichtsakte des US‑Justizministeriums verteidigt die Trump‑Regierung die Maßnahme als legal und betont, es handele sich um Verhandlungskonditionen und nationale Sicherheitsinteressen, nicht um Vergeltung gegen freie Meinungsäußerung.
Warum das wichtig ist
Der Ausschluss betrifft zwar zunächst nur ein begrenztes Set von Militärverträgen, könnte laut Pentagon‑Deklaration aber auf die gesamte Regierung ausgedehnt werden und dem Unternehmen laut seinen Führungskräften Milliardenverluste bescheren. Für die Branche steht viel auf dem Spiel: Es geht um die Balance zwischen nationaler Sicherheit, kommerziellem Zugang zu Regierungsaufträgen und dem Ruf eines der prominentesten KI‑Startups. Juristen sehen außerdem eine Grundsatzauseinandersetzung über verfassungsrechtliche Fragen wie Meinungs‑ und Prozessrechte auf sich zukommen.
Hintergrund: Technik, Verhandlungen und Positionen
Anthropic ist Hersteller des KI‑Assistenten Claude und hat wiederholt erklärt, seine Modelle dürften nicht für autonome Waffen genutzt werden; interne Schutzmechanismen gegen Überwachung lehnt das Unternehmen ebenfalls ab. Laut Regierung entspann sich nach monatelangen Verhandlungen ein Stillstand, woraufhin Präsident Trump und Hegseth die Firma öffentlich kritisierten. Das Justizministerium argumentiert, die Weigerung, Nutzungsbeschränkungen aufzugeben, sei ‚Verhalten, nicht geschützte Rede‘; Anthropic betont dagegen, dass KI noch nicht sicher genug für Waffen sei und dass es die Prinzipien der nationalen Sicherheit nicht unterminieren wolle.
Chancen, Risiken und Marktfolgen
Das Vorgehen könnte andere KI‑Anbieter zwingen, zwischen Marktchancen mit staatlichen Abnehmern und strikten Sicherheitsauflagen zu wählen, oder zu mehr Offenheit in Verhandlungen führen. Für Anthropic drohen erhebliche finanzielle Einbußen und Reputationsschäden, sollten sich Regierungsstellen von der Firma abwenden. Zugleich könnte ein Gerichtsentscheid Präzedenzwirkung haben: Er könnte entweder die Verfügungsgewalt des Staates über Vergabepolitik stärken oder die Schutzrechte von Technologieanbietern gegenüber staatlicher Einflussnahme betonen.
Wie siehst du das Spannungsverhältnis zwischen KI‑Sicherheit und staatlicher Kontrolle?