Laut den Klageschriften hat das US-Verteidigungsministerium am 3. März das Unternehmen offiziell auf die Liste der Lieferkettenrisiken gesetzt. Diese Entscheidung wurde vom Verteidigungsminister Pete Hegseth genehmigt und bedeutet, dass alle Unternehmen oder Einzelpersonen, die Geschäfte mit den US-Streitkräften machen, künftig verboten ist, gleichzeitig mit Anthropic zusammenzuarbeiten. Anthropic erklärt in der Klage, dass diese Maßnahme keine rechtliche Grundlage habe und gegen den Schutz der Meinungsfreiheit von Unternehmen durch die US-Verfassung verstoße.
Im Kern streitet die Klage die Beschränkungen für die Nutzung des von Anthropic entwickelten KI-Systems Claude an. Das Unternehmen betont, dass in seinen Regierungsverträgen stets klar geregelt sei, dass diese Technologie nicht für tödliche autonome Waffensysteme oder groß angelegte Überwachung von US-Bürgern verwendet werden dürfe. Anthropic berichtet, dass das Pentagon das Unternehmen aufgefordert habe, diese Beschränkungen aufzuheben, was das Unternehmen aus Sicherheits- und Ethikgründen abgelehnt habe.
In der Klage hebt Anthropic hervor, dass Claude nie für militärische Tötungszwecke getestet wurde und das Unternehmen keine Garantie dafür geben könne, dass das System in solchen Szenarien sicher und zuverlässig funktioniere. Die Klageschrift weist darauf hin, dass, nachdem die Regierung die entsprechenden Beschränkungen akzeptiert hatte, Präsident Trump anschließend von Bundesbehörden verlangte, die Nutzung von Claude einzustellen. Dieses Verhalten sei eindeutig als Racheakt zu werten.
Neben dem Verteidigungsministerium werden in der Klage auch das US-Finanzministerium sowie dessen Minister Scott Bessent, das US-Außenministerium und Außenminister Marco Rubio sowie 14 weitere Regierungsstellen und Beamte als Beklagte genannt.
Gleichzeitig haben mehr als 30 KI-Forscher von OpenAI und Google dem Gericht rechtliche Stellungnahmen vorgelegt, um Anthropic in seinem Verfahren zu unterstützen. Darunter ist Jeff Dean, der leitende Wissenschaftler bei Google. Diese Experten warnen in den Dokumenten, dass eine Bestrafung führender KI-Unternehmen durch die Regierung wegen technischer Beschränkungen langfristige negative Auswirkungen auf die Forschungs- und Wettbewerbsfähigkeit der USA im Bereich der künstlichen Intelligenz haben könnte.
Der Fall gilt als bedeutender rechtlicher Konflikt zwischen ethischer KI-Governance und nationalen Sicherheitsinteressen und könnte die zukünftigen Regeln für den Einsatz von KI im militärischen Bereich maßgeblich beeinflussen.