3月10日の報道によると、人工知能企業のAnthropicはカリフォルニア州連邦裁判所において、トランプ政権を相手取って訴訟を提起しました。これは、同社が軍に対して無制限の技術使用権を拒否した後、「不法な報復」を受けたとするものです。訴訟は、政府が同社を「サプライチェーンリスク」に指定した決定を巡るもので、このタグは通常、外国の敵対勢力に関与する企業に対して用いられるものであり、今回のケースは米国内のテクノロジー企業に初めて適用されたものです。
訴訟資料によると、米国防総省は3月3日に正式にAnthropicをサプライチェーンリスクリストに登録しました。この決定は国防長官のピート・ヘグセットによって承認され、米軍と取引のある企業や個人は、Anthropicとの商業取引を同時に行うことが禁止されることを意味します。Anthropicは、これらの措置には法的根拠がなく、米国憲法による企業の言論の自由の保護に違反していると主張しています。
争点の中心は、Anthropicの人工知能システム「Claude」の使用制限にあります。同社は、政府との契約において、この技術が致命的な自主兵器システムや米国市民を対象とした大規模監視に用いられないことを明確に規定していると述べています。Anthropicは、米国防総省がこれらの制限条項の撤廃を求めたものの、安全保障と倫理的観点からこれを拒否したとしています。
訴訟では、Claudeは軍事的な殺傷用途を目的としてテストされたことはなく、また、そのシステムがこうしたシナリオで安全かつ信頼性を持って動作することを確認できないと強調しています。訴状は、政府が既に制限条項を受け入れていたにもかかわらず、トランプ大統領がその後、連邦機関に対してClaudeの使用停止を命じた行為は明らかに報復的なものであると指摘しています。
この訴訟には、国防省のほか、米財務省とその長官スコット・ベッセント、米国務省と国務長官マルコ・ルビオなど17の政府機関や官僚も被告として含まれています。
また、OpenAIやGoogleの30人を超える人工知能研究者たちも裁判所に意見書を提出し、Anthropicの訴訟を支持しています。その中にはGoogleのチーフサイエンティスト、ジェフ・ディーンも含まれます。これらの専門家は、政府が技術的制限を理由に先進的なAI企業を罰することは、米国のAI研究競争力や産業優位性に長期的な悪影響を及ぼす可能性があると述べています。
この事件は、人工知能の倫理的ガバナンスと国家安全保障の要求との間の重要な法的対立と見なされており、今後の軍事分野におけるAIの適用ルールに深遠な影響を与える可能性があります。