Anthropic公司的CEO Dario Amodei在美国国防部和白宫发表声明,回应与美国国防部合作的承包商被要求停止使用Anthropic产品的事件。
在周六接受CBS新闻采访时,Amodei表示,Anthropic反对将其AI模型用于国内大规模监控以及开发可以自主开火的全自动武器系统,而无需任何人为干预。
他强调,Anthropic同意美国政府大部分的AI应用建议,除上述两个领域外。根据Amodei的说法,这些问题关系到美国人民的核心权益,包括免于政府监控的权利以及军官自主决策战争的权利,而不是将全部控制权交给机器。
此前,美国国防部已将Anthropic标记为“供应链风险”,意味着军事承包商不得在国防合同中使用该公司的产品。Amodei称此举是“前所未有的先例”,具有“惩罚性”。
不过,Anthropic的CEO也明确表示,他并不完全反对未来自动武器的研发,特别是如果外国军队开始部署这项技术的话。根据他所说,目前的问题是AI尚未达到在军事环境中完全自主操作的可靠水平。
Amodei认为,现行的法律框架尚未跟上AI行业的发展速度,并呼吁美国国会建立“保护措施”,以防止AI在国内大规模监控项目中的应用。
在相关事件中,美国国防部长Pete Hegseth在周五宣布,Anthropic是“国家安全的供应链风险”,并要求所有与美国军方合作的承包商、供应商或合作伙伴立即停止与该公司的商业活动。
仅数小时后,Anthropic的竞争对手OpenAI已与美国国防部签订合同,部署其AI模型于军事网络中。