Investing.com - Anthropic lundi a accusé trois laboratoires d’intelligence artificielle en Chine d’avoir mené des activités massives d’extraction de données sur leur modèle Claude AI, affirmant que ces entreprises utilisaient des comptes frauduleux pour améliorer illégalement leurs modèles.
Cette société d’IA a indiqué que DeepSeek, Moonshot et MiniMax ont interagi avec Claude plus de 16 millions de fois via environ 24 000 comptes frauduleux, en violation des conditions d’utilisation et des restrictions d’accès régionales. Ces accusations ont été portées après que OpenAI a formulé des revendications similaires, OpenAI ayant dit à des membres du Congrès que DeepSeek utilisait une technique de distillation pour renforcer ses modèles.
Ces laboratoires chinois utilisent une méthode appelée distillation, qui consiste à entraîner un modèle moins puissant en utilisant la sortie d’un système plus avancé. Bien que la distillation soit une technique légitime pour créer des versions plus petites de modèles d’IA, Anthropic affirme que lorsque des concurrents l’utilisent pour obtenir des capacités d’autres laboratoires, cela devient une pratique illégale.
Selon Anthropic, ces activités ciblaient les fonctionnalités avancées de Claude, notamment ses capacités de raisonnement, d’utilisation d’outils et de codage. La société indique avoir identifié ces opérations par le biais de correspondances d’adresses IP, de métadonnées de requêtes et d’indicateurs d’infrastructure.
Il est rapporté que DeepSeek a généré plus de 150 000 interactions axées sur la capacité de raisonnement et des tâches basées sur des critères de notation. Ces opérations utilisaient un flux synchronisé entre plusieurs comptes, avec des modèles et des méthodes de paiement partagés. Anthropic affirme que DeepSeek demandait à Claude d’expliciter étape par étape le raisonnement interne derrière ses réponses, générant ainsi des données d’entraînement pour des chaînes de pensée. La société a également observé des tâches où Claude était utilisé pour créer des alternatives concernant des questions politiques sensibles, telles que des dissidents, des dirigeants de partis et des régimes autoritaires.
Moonshot AI a effectué plus de 3,4 millions d’interactions portant sur le raisonnement, l’utilisation d’outils, le codage et la vision par ordinateur. Ces opérations utilisaient plusieurs voies d’accès via des centaines de comptes frauduleux. Anthropic a attribué cette activité à la société en faisant correspondre les métadonnées de requête avec les profils publics de ses employés de haut niveau.
MiniMax a généré plus de 13 millions d’interactions axées sur le codage et l’utilisation d’outils. Anthropic a détecté cette activité alors que MiniMax diffusait ses modèles d’entraînement, lorsque l’activité était encore active. Lors du lancement de nouveaux modèles par MiniMax, cette société chinoise a redirigé près de la moitié du trafic en 24 heures pour capturer les capacités du système le plus récent.
Anthropic indique que ces laboratoires accèdent à Claude via des services d’intermédiation commerciale qui revendent l’accès au modèle d’IA. Ces services exploitent des réseaux de comptes frauduleux, distribuant du trafic sur l’API d’Anthropic et sur des plateformes cloud tierces. Dans un cas, un seul réseau d’intermédiaires gérait plus de 20 000 comptes frauduleux simultanément.
Pour des raisons de sécurité nationale, Anthropic ne propose pas d’accès commercial à Claude en Chine. La société affirme que les modèles distillés illégalement manquent des garanties de sécurité nécessaires, ce qui pose des risques. Les systèmes qu’Anthropic et d’autres entreprises américaines ont mis en place empêchent les acteurs d’utiliser l’IA pour développer des armes biologiques ou mener des activités malveillantes en ligne.
Anthropic indique avoir développé des systèmes de détection et des outils d’empreintes comportementales pour identifier les modes d’attaque par distillation dans le trafic API. La société partage également ces indicateurs avec d’autres laboratoires d’IA, fournisseurs de services cloud et autorités. Elle a aussi renforcé la vérification des comptes éducatifs et des projets de recherche en sécurité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Anthropic accuse un laboratoire d'IA chinois de voler les données de Claude.
Investing.com - Anthropic lundi a accusé trois laboratoires d’intelligence artificielle en Chine d’avoir mené des activités massives d’extraction de données sur leur modèle Claude AI, affirmant que ces entreprises utilisaient des comptes frauduleux pour améliorer illégalement leurs modèles.
Cette société d’IA a indiqué que DeepSeek, Moonshot et MiniMax ont interagi avec Claude plus de 16 millions de fois via environ 24 000 comptes frauduleux, en violation des conditions d’utilisation et des restrictions d’accès régionales. Ces accusations ont été portées après que OpenAI a formulé des revendications similaires, OpenAI ayant dit à des membres du Congrès que DeepSeek utilisait une technique de distillation pour renforcer ses modèles.
Ces laboratoires chinois utilisent une méthode appelée distillation, qui consiste à entraîner un modèle moins puissant en utilisant la sortie d’un système plus avancé. Bien que la distillation soit une technique légitime pour créer des versions plus petites de modèles d’IA, Anthropic affirme que lorsque des concurrents l’utilisent pour obtenir des capacités d’autres laboratoires, cela devient une pratique illégale.
Selon Anthropic, ces activités ciblaient les fonctionnalités avancées de Claude, notamment ses capacités de raisonnement, d’utilisation d’outils et de codage. La société indique avoir identifié ces opérations par le biais de correspondances d’adresses IP, de métadonnées de requêtes et d’indicateurs d’infrastructure.
Il est rapporté que DeepSeek a généré plus de 150 000 interactions axées sur la capacité de raisonnement et des tâches basées sur des critères de notation. Ces opérations utilisaient un flux synchronisé entre plusieurs comptes, avec des modèles et des méthodes de paiement partagés. Anthropic affirme que DeepSeek demandait à Claude d’expliciter étape par étape le raisonnement interne derrière ses réponses, générant ainsi des données d’entraînement pour des chaînes de pensée. La société a également observé des tâches où Claude était utilisé pour créer des alternatives concernant des questions politiques sensibles, telles que des dissidents, des dirigeants de partis et des régimes autoritaires.
Moonshot AI a effectué plus de 3,4 millions d’interactions portant sur le raisonnement, l’utilisation d’outils, le codage et la vision par ordinateur. Ces opérations utilisaient plusieurs voies d’accès via des centaines de comptes frauduleux. Anthropic a attribué cette activité à la société en faisant correspondre les métadonnées de requête avec les profils publics de ses employés de haut niveau.
MiniMax a généré plus de 13 millions d’interactions axées sur le codage et l’utilisation d’outils. Anthropic a détecté cette activité alors que MiniMax diffusait ses modèles d’entraînement, lorsque l’activité était encore active. Lors du lancement de nouveaux modèles par MiniMax, cette société chinoise a redirigé près de la moitié du trafic en 24 heures pour capturer les capacités du système le plus récent.
Anthropic indique que ces laboratoires accèdent à Claude via des services d’intermédiation commerciale qui revendent l’accès au modèle d’IA. Ces services exploitent des réseaux de comptes frauduleux, distribuant du trafic sur l’API d’Anthropic et sur des plateformes cloud tierces. Dans un cas, un seul réseau d’intermédiaires gérait plus de 20 000 comptes frauduleux simultanément.
Pour des raisons de sécurité nationale, Anthropic ne propose pas d’accès commercial à Claude en Chine. La société affirme que les modèles distillés illégalement manquent des garanties de sécurité nécessaires, ce qui pose des risques. Les systèmes qu’Anthropic et d’autres entreprises américaines ont mis en place empêchent les acteurs d’utiliser l’IA pour développer des armes biologiques ou mener des activités malveillantes en ligne.
Anthropic indique avoir développé des systèmes de détection et des outils d’empreintes comportementales pour identifier les modes d’attaque par distillation dans le trafic API. La société partage également ces indicateurs avec d’autres laboratoires d’IA, fournisseurs de services cloud et autorités. Elle a aussi renforcé la vérification des comptes éducatifs et des projets de recherche en sécurité.