Anthropic已向联邦法院提起诉讼,抗议特朗普政府的全面黑名单,声称政府将这家AI初创公司列为国家安全威胁,是对其拒绝放宽安全协议的报复。
该诉讼于周一在美国北加州地区法院提起,质疑在特朗普总统于二月指示联邦机构停止使用Anthropic技术后采取的行动。这一切发生在Anthropic CEO Dario Amodei公开表示公司不会遵从五角大楼关于无限制访问Claude的请求之后。
起诉书指控多个联邦机构和高级官员为被告,包括国防部长Pete Hegseth、财政部长Scott Bessent和国务卿Marco Rubio。
“宪法不允许政府滥用其巨大权力,惩罚其受保护的言论,”Anthropic的律师在诉讼中表示。“没有任何联邦法律授权此类行为。Anthropic将司法作为最后的手段,以维护其权益并制止行政部门的非法报复行动。”
在@POTUS的指示下,@USTreasury正在终止我们部门内所有对Anthropic产品的使用,包括其Claude平台的使用。
美国人民应有信心,政府的每一项工具都服务于公众利益,而在特朗普总统的领导下…… https://t.co/R7rF0ci5CY
— 财政部长Scott Bessent (@SecScottBessent) 2026年3月2日
争议始于一月,当时五角大楼官员要求AI承包商允许其系统用于“任何合法用途”,包括军事应用。尽管Anthropic当时已与国防部签订了2亿美元的合同,但它拒绝移除两个限制措施,禁止使用Claude进行大规模国内监控或完全自主的致命武器系统。
“被挑战的行动对Anthropic造成了立即且无法弥补的伤害;对其他可能因此受影响的言论自由;对那些依赖公司持续创造经济价值的利益相关者;以及对全球公众——他们应当拥有关于AI在战争和监控中意义的充分对话和辩论,”Anthropic的律师在诉讼中表示。
对于包括SingularityNET CEO Ben Goertzel在内的AI开发者来说,这一标记是一个奇怪的选择,并不符合供应链威胁的典型定义,通常指来自对手的软件,可能包含隐藏的恶意软件、病毒或间谍软件。
“Anthropic不愿意让他们的软件被用于自主杀戮或大规模监控,这似乎并不构成那种风险,”Goertzel在接受_Decrypt_采访时表示。“这只是意味着如果你想用软件进行自主杀戮或大规模监控,就买别人的软件。所以我不理解把它作为供应链风险的逻辑。”
Goertzel表示,不同的领先AI模型之间的差异可能会限制这一决定的实际影响。
“归根结底,Claude、ChatGPT和Gemini彼此差异不大,”他说。“只要美国政府使用其中一个顶级系统,基本上都是一样的。而情报机构在顶级机密许可的掩护下,会随意使用这些软件。”
Anthropic请求法院宣布政府的行为非法,并阻止执行“供应链风险”标记,该标记阻止联邦机构和五角大楼承包商与该公司进行业务往来。
“没有合理的理由支持被挑战的行动,”诉讼中写道。“法院应宣布其非法,并禁止被告采取任何措施实施它们。”
_Decrypt_尚未立即对置评请求作出回应。
即使将Anthropic列为国家安全风险,Claude仍在持续的军事行动中被使用,包括由美国中央司令部用以分析情报和识别伊朗打击目标。
卡托研究所的技术政策高级研究员Jennifer Huddleston在与_Decrypt_分享的声明中表示,此案引发了关于在国家安全声称被用来为政府行动辩护时宪法保护的担忧。
“虽然过去法院对质疑政府国家安全声称持谨慎态度,但本案的情况无疑凸显了如果不彻底审查此类声称的基本考虑,可能对美国人的第一修正案权利带来的真正风险,”她说。