Anthropic 起诉美国政府!要求撤销五角大楼「供应链风险」封杀令

動區BlockTempo

AI 新创公司 Anthropic 与美国政府的冲突持续升级。据 Reuters 报导,美国国防部(Pentagon)近期将 Anthropic 列为“供应链风险”(supply-chain risk)实体,限制其 AI 技术在军方合约中的使用。Anthropic 表示该认定缺乏法律依据,并已向联邦法院提起诉讼,要求撤销相关决定。
(前情提要:Anthropic 与五角大楼重启 AI 谈判:力求保住 Claude 国防合作、但坚守伦理红线)
(背景补充:Anthropic CEO 怒嗆:OpenAI 与五角大厦合约全是谎言,Altman 假装自己为和平大使)

本文目录

Toggle

  • 五角大楼将 Anthropic 列为“供应链风险”
  • 冲突焦点:AI 是否能用于监控与武器
  • Anthropic:认定“缺乏法律依据”将提告
  • AI 军事应用与企业伦理之争升温

人工智能公司 Anthropic 与美国政府的冲突正式进入法律战。美国国防部近期宣布将 Anthropic 列为“供应链风险”实体,限制其 AI 模型在军事相关合约中的使用。Anthropic 则强烈反驳,称此举“前所未有且缺乏法律依据”,并已向联邦法院提起诉讼,要求法院撤销该认定并阻止政府执行相关限制措施。

五角大楼将 Anthropic 列为“供应链风险”

据 Reuters 此前报道,美国国防部已正式通知 Anthropic,该公司及其 AI 技术被认定为“供应链风险”,该决定即刻生效。这项标签通常用于限制可能对国家安全造成风险的供应商,并可能禁止其产品出现在国防采购或军方合约中。

在实务上,这意味着与美国军方合作的承包商与供应商,在执行国防部相关项目时,可能不得使用 Anthropic 的 AI 模型,例如其知名的 Claude 系列系统。外界指出,这是极为罕见的案例,因为类似标签过去多用于外国企业或被视为国安威胁的供应商,而非美国本土 AI 公司。

冲突焦点:AI 是否能用于监控与武器

这场争议的核心,来自 Anthropic 对其 AI 技术使用范围的限制。根据多家媒体报道,Anthropic 明确拒绝让其 AI 模型用于两类高风险用途,包括:

  1. 完全自主武器系统
  2. 对美国公民的大规模监控

然而,美国国防部在与公司谈判时,希望 AI 模型能允许“所有合法用途”。双方在安全限制问题上始终未能达成共识,最终导致谈判破裂并引发政府采取供应链风险认定措施。

Anthropic:认定“缺乏法律依据”将提告

Anthropic CEO Dario Amodei 表示,该公司认为国防部的决定“在法律上站不住脚”,并警告此举可能为政府惩罚企业立场开创危险先例。Anthropic 已在联邦法院提出诉讼,要求撤销该认定并禁止政府执行相关限制。

Anthropic 指出,“供应链风险”标签过去通常用于外国对手企业,而将其套用在一家美国 AI 公司身上,可能对整个科技产业与政府合作模式造成深远影响。

AI 军事应用与企业伦理之争升温

分析人士指出,这起案件反映了 AI 产业正在面临的新难题:当大型模型开始进入军事与国安领域时,企业能否限制政府如何使用其技术?

部分政策专家认为,若政府能因企业设定安全限制而对其施加经济制裁,可能削弱科技公司对 AI 安全与伦理的自主决策权。另一方面,军方则认为 AI 技术对国家安全具有战略意义,不应受到过多限制。

这场法律战的结果,可能不仅决定 Anthropic 是否能恢复与美国政府的合作,也可能为未来 AI 公司与政府之间的合作模式立下重要先例。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论