Pentagon gegen Anthropic: Streit um KI-Auflagen blockiert Millionenvertrag
Was ist passiert?
Laut Reuters ist ein bis zu 200 Millionen Dollar schwerer Vertrag zwischen dem US-Verteidigungsministerium und Anthropic ins Stocken geraten, weil sich beide Seiten über Nutzungsbeschränkungen streiten. Militärvertreter verlangen, kommerzielle KI-Systeme möglichst ohne firmeninterne einschränkende Vorgaben für Kampfeinsätze und Aufklärung einsetzen zu können, Anwendernanliegen und Gesetze vorausgesetzt. Anthropic warnt dagegen vor Einsätzen, die tödliche Autonomie ermöglichen oder zur Überwachung amerikanischer Bürger genutzt werden könnten, wie anonyme Quellen gegenüber Reuters erklärten. Sechs Personen sollen mit den Gesprächen vertraut gewesen sein, heißt es im Bericht.
Warum das wichtig ist
Der Streit berührt ein zentrales ethisches und strategisches Dilemma: Wer bestimmt die Regeln für militärisch genutzte KI — die Hersteller oder das Militär? Das Pentagon treibt unter der Trump-Administration eine schnelle Integration von KI in die Streitkräfte voran und möchte laut Strategie das US-Militär in eine "AI-first"-Kraft verwandeln. Verteidigungsminister Pete Hegseth wird mit der Aussage zitiert, er wolle keine Modelle einsetzen, die "won't allow you to fight wars". Für Anthropic ist die Auseinandersetzung auch wirtschaftlich brisant, weil das Unternehmen Regierungskunden wirbt und sich auf einen möglichen Börsengang vorbereitet.
Hintergrund: Technik und Strategie
Anthropic hat wiederholt vor den Gefahren unkontrollierter KI gewarnt; CEO Dario Amodei plädiert dafür, die Verteidigung zu unterstützen "in all ways except those which would make us more like our autocratic adversaries", wie er in einem Essay schrieb. Die Firma betont zugleich, ihre Systeme würden bereits "umfangreich für nationale Sicherheitsaufgaben der US-Regierung" eingesetzt und befinde sich in "produktiven Gesprächen" mit dem Pentagon, so ein Unternehmenssprecher. Auf der anderen Seite argumentieren Pentagon-Vertreter, kommerzielle Nutzungsregeln dürften militärische Einsatzoptionen nicht einschränken, solange gesetzliche Vorgaben eingehalten werden. Anthropic war neben OpenAI, Google und Elon Musks xAI einer der KI-Anbieter, die im vergangenen Jahr Pentagon-Aufträge erhielten.
Chancen, Risiken und Marktfolgen
Wird ein Kompromiss gefunden, kann die US-Armee schneller auf fortgeschrittene Modelle zugreifen — das erhöht operatives Potenzial, aber auch das Risiko fehlerhafter oder autonomen Entscheidungen im Gefechtsfeld. Ein Durchbruch zugunsten des Pentagon würde zudem den Druck auf andere Anbieter erhöhen, restriktive Nutzungsrichtlinien aufzugeben oder anzupassen, was Folgen für Vertrauen und Geschäftsmodelle haben könnte. Umgekehrt würde ein Sieg Anthropics neue Standards für ethische Grenzen bei militärischer Nutzung setzen, aber die Regierungsaufträge und damit Einnahmequellen des Unternehmens gefährden. Insgesamt steht damit nicht nur ein Einzelvertrag, sondern die längerfristige Balance zwischen Sicherheit, Ethik und kommerziellen Interessen auf dem Spiel.
Wie siehst du die Rolle von kommerziellen KI-Firmen im Militär — Kontrolle durch Konzerne oder volle staatliche Verfügungsgewalt?
Quelle: https://www.rt.com/news/631817-pentagon-anthropic-ai-guardrails/