3月3日消息,围绕OpenAI与美国国防部达成AI合作协议的消息持续发酵,多名现任及前任员工近日在社交平台X上公开讨论该协议的安全边界、潜在用途以及与Anthropic立场之间的差异,引发科技与政策领域广泛关注。
OpenAI首席执行官Sam Altman此前确认,公司已与美国国防部达成合作协议,允许其在特定条件下使用OpenAI的人工智能模型。该合作很快引起争议,因为另一家AI公司Anthropic此前拒绝接受类似条款,原因是担忧其模型Claude可能被用于大规模国内监控或自主致命武器系统。
对此,OpenAI研究人员Boaz Barak表示,将OpenAI合同描述为“弱化安全红线”并不准确。他指出,从目前掌握的信息来看,OpenAI协议中对AI模型用途的限制可能比Anthropic此前获得的合同更严格,尤其是在防止大规模国内监控和自主武器方面。
与此同时,前OpenAI政策研究主管Miles Brundage则提出不同观点。他认为,在外部律师和五角大楼公开表态的背景下,一些员工可能会怀疑公司在谈判中做出了让步,并试图将这种让步包装成技术合作。不过他随后补充称,OpenAI内部结构复杂,参与谈判的团队可能确实在努力争取合理结果。
另一名OpenAI技术人员Clive Chan透露,公司合同中包含禁止将AI用于大规模监控或自主致命武器的保障条款,并表示自己正在推动公司公开更多协议细节,以回应公众疑虑。
研究科学家Muhammad Bavarian则表示,五角大楼将Anthropic视为供应链风险的做法并不公平。他认为,如果双方在谈判中保持冷静,仍然有机会弥合立场差距。
此外,研究员Noam Brown指出,最初公布的协议措辞确实留下了一些疑问,例如AI可能被用于新的合法监控形式。不过在OpenAI更新官方博客后,这些表述已经有所调整。
Noam Brown还强调,人工智能在国家安全机构中的应用应经过民主程序审查,而不应仅由科技公司或情报机构决定。当前,向美国国家安全局等情报部门部署相关AI系统的计划也被暂缓,以等待进一步政策讨论。
此次事件反映出AI技术在国家安全领域应用时所面临的复杂争议。随着人工智能能力不断增强,关于AI军事用途、AI监控风险以及AI伦理治理的讨论,预计仍将持续升温。