Anthropic指控中国AI实验室窃取Claude数据

robot
摘要生成中

Investing.com - Anthropic周一指控三家中国人工智能实验室对其Claude AI模型进行大规模数据提取活动,声称这些公司使用欺诈账户非法改进自己的模型。

这家AI公司表示,DeepSeek、Moonshot和MiniMax通过约24,000个欺诈账户与Claude进行了超过1600万次交互,违反了服务条款和地区访问限制。这些指控是在OpenAI提出类似主张之后发生的,OpenAI曾告诉众议院议员,DeepSeek使用蒸馏技术来增强其模型。

这些中国实验室采用了一种称为蒸馏的方法,即利用更先进系统的输出来训练能力较弱的模型。虽然蒸馏是AI公司用来创建自己模型的较小版本的合法训练技术,但Anthropic表示,当竞争对手使用它从其他实验室获取能力时,这种做法就变成了非法行为。

据Anthropic称,这些活动针对Claude最先进的功能,包括推理能力、工具使用和编码功能。该公司表示,它通过IP地址关联、请求元数据和基础设施指标识别了这些操作。

据报道,DeepSeek产生了超过15万次专注于推理能力和基于评分标准任务的交互。该操作在多个账户之间使用同步流量,具有相同的模式和共享的支付方式。Anthropic表示,DeepSeek的提示要求Claude逐步阐明已完成响应背后的内部推理,生成思维链训练数据。该公司还观察到一些任务,其中Claude被用来创建关于异议人士、党领导人和威权主义等政治敏感查询的替代方案。

Moonshot AI进行了超过340万次针对推理、工具使用、编码和计算机视觉能力的交互。该操作通过多个访问路径使用了数百个欺诈账户。Anthropic通过请求元数据匹配Moonshot高级员工的公开资料,将该活动归因于该公司。

MiniMax产生了超过1300万次专注于编码和工具使用的交互。Anthropic在MiniMax发布其训练模型之前,在该活动处于活跃状态时就检测到了这一活动。当Anthropic在MiniMax操作期间发布新模型时,这家中国实验室在24小时内将近一半的流量重定向,以捕获最新系统的能力。

Anthropic表示,这些实验室通过转售AI模型访问权限的商业代理服务访问Claude。这些服务运营欺诈账户网络,在Anthropic的API和第三方云平台上分配流量。在一个案例中,单个代理网络同时管理了超过20,000个欺诈账户。

出于国家安全原因,Anthropic不在中国提供Claude的商业访问权限。该公司表示,非法蒸馏的模型缺乏必要的安全保障,造成安全风险。Anthropic和其他美国公司建立的系统可防止行为者使用AI开发生物武器或进行恶意网络活动。

Anthropic表示,它已经建立了检测系统和行为指纹工具,以识别API流量中的蒸馏攻击模式。该公司正在与其他AI实验室、云服务提供商和当局共享技术指标。它还加强了对教育账户和安全研究项目的验证。

本文由人工智能协助翻译。更多信息,请参见我们的使用条款。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)