Investing.com - Anthropicは月曜日、中国の三つの人工知能実験室がClaude AIモデルに対して大規模なデータ抽出活動を行っていると指摘し、これらの企業が詐欺アカウントを使用して不正にモデルを改良していると主張しました。このAI企業によると、DeepSeek、Moonshot、MiniMaxは約24,000の詐欺アカウントを通じてClaudeと1,600万回以上のやり取りを行い、サービス規約や地域アクセス制限に違反しているとのことです。これらの告発は、OpenAIが類似の主張を行った後に発生し、OpenAIは下院議員に対し、DeepSeekが蒸留技術を用いてモデルを強化していると伝えていました。これらの中国の実験室は、「蒸留」と呼ばれる手法を採用しており、より高度なシステムの出力を利用して能力の低いモデルを訓練しています。蒸留はAI企業が自社モデルの小型版を作成するための合法的な訓練技術ですが、Anthropicは、競合他社が他の実験室から能力を取得するためにこれを使用した場合、それは不正行為になると指摘しています。Anthropicによると、これらの活動はClaudeの最先端機能、推論能力、ツール使用、コーディング機能を対象としています。同社は、IPアドレスの関連付け、リクエストのメタデータ、インフラの指標を用いてこれらの操作を特定したと述べています。報道によると、DeepSeekは推論能力やスコアリング基準に基づくタスクに焦点を当てた15万回以上のやり取りを行いました。この操作は複数のアカウント間で同期流量を使用し、同じパターンと支払い方法を共有していました。Anthropicは、DeepSeekのプロンプトがClaudeに対し、応答の背後にある内部推論を段階的に明らかにさせ、思考の連鎖を生成する訓練データを作成させていたと述べています。また、異議申し立て者、党のリーダー、権威主義に関する政治的に敏感なクエリの代替案を作成するためにClaudeが使用されたタスクも観察しています。Moonshot AIは、推論、ツール使用、コーディング、コンピュータビジョン能力に対して340万回以上のやり取りを行いました。この操作は複数のアクセス経路を通じて数百の詐欺アカウントを使用していました。Anthropicは、リクエストのメタデータを用いてMoonshotの上級スタッフの公開情報と照合し、この活動を同社に帰属させています。MiniMaxは、コーディングとツール使用に焦点を当てた1,300万回以上のやり取りを生成しました。Anthropicは、MiniMaxが訓練モデルを公開する前に、この活動を検知していました。AnthropicがMiniMaxの操作中に新しいモデルをリリースした際、中国のこの実験室は24時間以内に流量のほぼ半分をリダイレクトし、最新システムの能力を捕捉していました。Anthropicは、これらの実験室がAIモデルのアクセス権を転売する商業代理サービスを通じてClaudeにアクセスしていると述べています。これらのサービスは詐欺アカウントのネットワークを運営し、AnthropicのAPIやサードパーティのクラウドプラットフォーム上でトラフィックを分配しています。あるケースでは、単一の代理ネットワークが2万以上の詐欺アカウントを同時に管理していました。国家安全保障上の理由から、Anthropicは中国でClaudeの商用アクセスを提供していません。同社は、違法な蒸留によるモデルは必要な安全保障措置を欠いており、安全リスクを引き起こすと指摘しています。Anthropicや他の米国企業が構築したシステムは、行為者が生物兵器の開発や悪意のあるサイバー活動にAIを利用するのを防止しています。Anthropicは、APIトラフィック中の蒸留攻撃パターンを識別するための検出システムと行動指紋ツールを構築していると述べています。同社は、他のAI実験室やクラウドサービス提供者、当局と技術指標を共有しています。また、教育アカウントや安全保障研究プロジェクトの検証も強化しています。_この記事は人工知能の支援を受けて翻訳されました。詳細は利用規約をご覧ください。_
Anthropicは中国のAI研究所がClaudeのデータを盗用したと非難
Investing.com - Anthropicは月曜日、中国の三つの人工知能実験室がClaude AIモデルに対して大規模なデータ抽出活動を行っていると指摘し、これらの企業が詐欺アカウントを使用して不正にモデルを改良していると主張しました。
このAI企業によると、DeepSeek、Moonshot、MiniMaxは約24,000の詐欺アカウントを通じてClaudeと1,600万回以上のやり取りを行い、サービス規約や地域アクセス制限に違反しているとのことです。これらの告発は、OpenAIが類似の主張を行った後に発生し、OpenAIは下院議員に対し、DeepSeekが蒸留技術を用いてモデルを強化していると伝えていました。
これらの中国の実験室は、「蒸留」と呼ばれる手法を採用しており、より高度なシステムの出力を利用して能力の低いモデルを訓練しています。蒸留はAI企業が自社モデルの小型版を作成するための合法的な訓練技術ですが、Anthropicは、競合他社が他の実験室から能力を取得するためにこれを使用した場合、それは不正行為になると指摘しています。
Anthropicによると、これらの活動はClaudeの最先端機能、推論能力、ツール使用、コーディング機能を対象としています。同社は、IPアドレスの関連付け、リクエストのメタデータ、インフラの指標を用いてこれらの操作を特定したと述べています。
報道によると、DeepSeekは推論能力やスコアリング基準に基づくタスクに焦点を当てた15万回以上のやり取りを行いました。この操作は複数のアカウント間で同期流量を使用し、同じパターンと支払い方法を共有していました。Anthropicは、DeepSeekのプロンプトがClaudeに対し、応答の背後にある内部推論を段階的に明らかにさせ、思考の連鎖を生成する訓練データを作成させていたと述べています。また、異議申し立て者、党のリーダー、権威主義に関する政治的に敏感なクエリの代替案を作成するためにClaudeが使用されたタスクも観察しています。
Moonshot AIは、推論、ツール使用、コーディング、コンピュータビジョン能力に対して340万回以上のやり取りを行いました。この操作は複数のアクセス経路を通じて数百の詐欺アカウントを使用していました。Anthropicは、リクエストのメタデータを用いてMoonshotの上級スタッフの公開情報と照合し、この活動を同社に帰属させています。
MiniMaxは、コーディングとツール使用に焦点を当てた1,300万回以上のやり取りを生成しました。Anthropicは、MiniMaxが訓練モデルを公開する前に、この活動を検知していました。AnthropicがMiniMaxの操作中に新しいモデルをリリースした際、中国のこの実験室は24時間以内に流量のほぼ半分をリダイレクトし、最新システムの能力を捕捉していました。
Anthropicは、これらの実験室がAIモデルのアクセス権を転売する商業代理サービスを通じてClaudeにアクセスしていると述べています。これらのサービスは詐欺アカウントのネットワークを運営し、AnthropicのAPIやサードパーティのクラウドプラットフォーム上でトラフィックを分配しています。あるケースでは、単一の代理ネットワークが2万以上の詐欺アカウントを同時に管理していました。
国家安全保障上の理由から、Anthropicは中国でClaudeの商用アクセスを提供していません。同社は、違法な蒸留によるモデルは必要な安全保障措置を欠いており、安全リスクを引き起こすと指摘しています。Anthropicや他の米国企業が構築したシステムは、行為者が生物兵器の開発や悪意のあるサイバー活動にAIを利用するのを防止しています。
Anthropicは、APIトラフィック中の蒸留攻撃パターンを識別するための検出システムと行動指紋ツールを構築していると述べています。同社は、他のAI実験室やクラウドサービス提供者、当局と技術指標を共有しています。また、教育アカウントや安全保障研究プロジェクトの検証も強化しています。
この記事は人工知能の支援を受けて翻訳されました。詳細は利用規約をご覧ください。