Investing.com - Anthropic na segunda-feira acusou três laboratórios de inteligência artificial na China de realizar atividades de extração massiva de dados do seu modelo Claude AI, alegando que essas empresas usam contas fraudulentas para melhorar ilegalmente os seus modelos.
Esta empresa de IA afirmou que a DeepSeek, Moonshot e MiniMax interagiram com Claude mais de 16 milhões de vezes através de cerca de 24.000 contas fraudulentas, violando os termos de serviço e restrições de acesso regionais. Essas acusações surgiram após a OpenAI fazer alegações semelhantes, tendo informado deputados da Câmara que a DeepSeek utilizava técnicas de destilação para aprimorar o seu modelo.
Estes laboratórios chineses usam um método chamado destilação, que consiste em treinar modelos menos capazes usando os outputs de sistemas mais avançados. Embora a destilação seja uma técnica legítima usada por empresas de IA para criar versões menores dos seus modelos, a Anthropic afirma que, quando os concorrentes a usam para obter capacidades de outros laboratórios, essa prática torna-se ilegal.
Segundo a Anthropic, essas atividades visam as funcionalidades mais avançadas do Claude, incluindo raciocínio, uso de ferramentas e capacidades de codificação. A empresa afirmou que identificou essas operações por meio de associação de endereços IP, metadados de requisições e indicadores de infraestrutura.
Relatos indicam que a DeepSeek realizou mais de 150.000 interações focadas em raciocínio e tarefas baseadas em critérios de avaliação. Essas operações usaram fluxo sincronizado entre várias contas, com padrões semelhantes e métodos de pagamento compartilhados. A Anthropic afirmou que a DeepSeek solicitava ao Claude que explicasse passo a passo o raciocínio interno por trás das respostas, gerando dados de treinamento de cadeias de pensamento. A empresa também observou tarefas onde o Claude foi usado para criar alternativas a consultas politicamente sensíveis, como opiniões sobre dissidentes, líderes partidários e autoritarismo.
A Moonshot AI realizou mais de 3,4 milhões de interações relacionadas a raciocínio, uso de ferramentas, codificação e visão computacional. Essas operações usaram centenas de contas fraudulentas através de múltiplos acessos. A Anthropic atribuiu essa atividade à Moonshot ao correlacionar metadados de requisições com perfis públicos de altos funcionários da empresa.
A MiniMax gerou mais de 13 milhões de interações focadas em codificação e uso de ferramentas. Antes do lançamento de seus modelos de treinamento, a Anthropic detectou essa atividade enquanto ela ainda estava ativa. Quando a MiniMax lançou um novo modelo durante a operação, essa laboratório chinês redirecionou quase metade do seu tráfego em 24 horas para capturar as capacidades do sistema mais recente.
A Anthropic afirmou que esses laboratórios acessam o Claude por meio de serviços comerciais de revenda de acesso ao IA. Esses serviços operam redes de contas fraudulentas, distribuindo tráfego na API da Anthropic e em plataformas de nuvem de terceiros. Em um caso, uma única rede de proxies gerenciava mais de 20.000 contas fraudulentas simultaneamente.
Por motivos de segurança nacional, a Anthropic não oferece acesso comercial ao Claude na China. A empresa afirmou que modelos destilados ilegalmente carecem de garantias de segurança essenciais, representando riscos de segurança. Sistemas desenvolvidos pela Anthropic e outras empresas americanas impedem que atores usem IA para desenvolver armas biológicas ou realizar atividades maliciosas na internet.
A Anthropic declarou que criou sistemas de detecção e ferramentas de impressão digital comportamental para identificar padrões de ataques de destilação no tráfego de API. A empresa está compartilhando esses indicadores com outros laboratórios de IA, provedores de serviços de nuvem e autoridades. Além disso, reforçou a verificação de contas educativas e projetos de pesquisa de segurança.
Este texto foi traduzido com assistência de inteligência artificial. Para mais informações, consulte os nossos termos de uso.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Anthropic acusa laboratório de IA na China de roubar dados do Claude.
Investing.com - Anthropic na segunda-feira acusou três laboratórios de inteligência artificial na China de realizar atividades de extração massiva de dados do seu modelo Claude AI, alegando que essas empresas usam contas fraudulentas para melhorar ilegalmente os seus modelos.
Esta empresa de IA afirmou que a DeepSeek, Moonshot e MiniMax interagiram com Claude mais de 16 milhões de vezes através de cerca de 24.000 contas fraudulentas, violando os termos de serviço e restrições de acesso regionais. Essas acusações surgiram após a OpenAI fazer alegações semelhantes, tendo informado deputados da Câmara que a DeepSeek utilizava técnicas de destilação para aprimorar o seu modelo.
Estes laboratórios chineses usam um método chamado destilação, que consiste em treinar modelos menos capazes usando os outputs de sistemas mais avançados. Embora a destilação seja uma técnica legítima usada por empresas de IA para criar versões menores dos seus modelos, a Anthropic afirma que, quando os concorrentes a usam para obter capacidades de outros laboratórios, essa prática torna-se ilegal.
Segundo a Anthropic, essas atividades visam as funcionalidades mais avançadas do Claude, incluindo raciocínio, uso de ferramentas e capacidades de codificação. A empresa afirmou que identificou essas operações por meio de associação de endereços IP, metadados de requisições e indicadores de infraestrutura.
Relatos indicam que a DeepSeek realizou mais de 150.000 interações focadas em raciocínio e tarefas baseadas em critérios de avaliação. Essas operações usaram fluxo sincronizado entre várias contas, com padrões semelhantes e métodos de pagamento compartilhados. A Anthropic afirmou que a DeepSeek solicitava ao Claude que explicasse passo a passo o raciocínio interno por trás das respostas, gerando dados de treinamento de cadeias de pensamento. A empresa também observou tarefas onde o Claude foi usado para criar alternativas a consultas politicamente sensíveis, como opiniões sobre dissidentes, líderes partidários e autoritarismo.
A Moonshot AI realizou mais de 3,4 milhões de interações relacionadas a raciocínio, uso de ferramentas, codificação e visão computacional. Essas operações usaram centenas de contas fraudulentas através de múltiplos acessos. A Anthropic atribuiu essa atividade à Moonshot ao correlacionar metadados de requisições com perfis públicos de altos funcionários da empresa.
A MiniMax gerou mais de 13 milhões de interações focadas em codificação e uso de ferramentas. Antes do lançamento de seus modelos de treinamento, a Anthropic detectou essa atividade enquanto ela ainda estava ativa. Quando a MiniMax lançou um novo modelo durante a operação, essa laboratório chinês redirecionou quase metade do seu tráfego em 24 horas para capturar as capacidades do sistema mais recente.
A Anthropic afirmou que esses laboratórios acessam o Claude por meio de serviços comerciais de revenda de acesso ao IA. Esses serviços operam redes de contas fraudulentas, distribuindo tráfego na API da Anthropic e em plataformas de nuvem de terceiros. Em um caso, uma única rede de proxies gerenciava mais de 20.000 contas fraudulentas simultaneamente.
Por motivos de segurança nacional, a Anthropic não oferece acesso comercial ao Claude na China. A empresa afirmou que modelos destilados ilegalmente carecem de garantias de segurança essenciais, representando riscos de segurança. Sistemas desenvolvidos pela Anthropic e outras empresas americanas impedem que atores usem IA para desenvolver armas biológicas ou realizar atividades maliciosas na internet.
A Anthropic declarou que criou sistemas de detecção e ferramentas de impressão digital comportamental para identificar padrões de ataques de destilação no tráfego de API. A empresa está compartilhando esses indicadores com outros laboratórios de IA, provedores de serviços de nuvem e autoridades. Além disso, reforçou a verificação de contas educativas e projetos de pesquisa de segurança.
Este texto foi traduzido com assistência de inteligência artificial. Para mais informações, consulte os nossos termos de uso.