Investing.com - Anthropic acusó el lunes a tres laboratorios de inteligencia artificial en China de realizar actividades masivas de extracción de datos de su modelo Claude AI, alegando que estas empresas utilizan cuentas fraudulentas para mejorar ilegalmente sus propios modelos.
Esta compañía de IA afirmó que DeepSeek, Moonshot y MiniMax interactuaron con Claude más de 16 millones de veces a través de aproximadamente 24,000 cuentas fraudulentas, violando los términos de servicio y las restricciones de acceso regionales. Estas acusaciones surgieron después de que OpenAI hiciera reclamos similares, en los que informó a los legisladores de la Cámara de Representantes que DeepSeek utilizaba técnicas de destilación para potenciar su modelo.
Estos laboratorios chinos emplean un método llamado destilación, que consiste en entrenar modelos menos capaces utilizando la salida de sistemas más avanzados. Aunque la destilación es una técnica legítima utilizada por las empresas de IA para crear versiones más pequeñas de sus modelos, Anthropic afirmó que cuando los competidores la usan para obtener capacidades de otros laboratorios, esa práctica se vuelve ilegal.
Según Anthropic, estas actividades apuntan a las funciones más avanzadas de Claude, incluyendo capacidades de razonamiento, uso de herramientas y codificación. La compañía indicó que identificó estas operaciones mediante la asociación de direcciones IP, metadatos de solicitudes y métricas de infraestructura.
Se reporta que DeepSeek generó más de 150,000 interacciones centradas en capacidades de razonamiento y tareas basadas en criterios de puntuación. La operación utilizó tráfico sincronizado entre varias cuentas, con patrones similares y métodos de pago compartidos. Anthropic afirmó que las solicitudes de DeepSeek pedían a Claude explicar paso a paso el razonamiento interno detrás de las respuestas, generando datos de entrenamiento para cadenas de pensamiento. También observaron tareas en las que Claude fue utilizado para crear alternativas a consultas políticamente sensibles relacionadas con disidentes, líderes de partidos y autoritarismo.
Moonshot AI realizó más de 3.4 millones de interacciones relacionadas con razonamiento, uso de herramientas, codificación y visión por computadora. La operación utilizó cientos de cuentas fraudulentas a través de múltiples vías de acceso. Anthropic atribuyó esta actividad a la compañía mediante la comparación de metadatos de solicitudes con perfiles públicos de empleados senior de Moonshot.
MiniMax generó más de 13 millones de interacciones centradas en codificación y uso de herramientas. Anthropic detectó esta actividad cuando MiniMax aún estaba en modo activo, antes de que lanzaran su modelo de entrenamiento. Cuando MiniMax lanzó un nuevo modelo durante la operación, esa laboratorio chino redirigió casi la mitad del tráfico en 24 horas para capturar las capacidades del sistema más reciente.
Anthropic afirmó que estos laboratorios acceden a Claude a través de servicios comerciales de reventa de acceso a modelos de IA. Estos servicios operan redes de cuentas fraudulentas, distribuyendo tráfico en la API de Anthropic y en plataformas en la nube de terceros. En un caso, una sola red de agentes gestionaba más de 20,000 cuentas fraudulentas simultáneamente.
Por motivos de seguridad nacional, Anthropic no ofrece acceso comercial a Claude en China. La compañía señaló que los modelos destilados ilegalmente carecen de las garantías de seguridad necesarias, lo que representa un riesgo. Los sistemas desarrollados por Anthropic y otras empresas estadounidenses están diseñados para impedir que actores maliciosos utilicen IA para desarrollar armas biológicas o realizar actividades cibernéticas maliciosas.
Anthropic afirmó que ha desarrollado sistemas de detección y herramientas de huellas digitales para identificar patrones de ataques de destilación en el tráfico de API. La compañía está compartiendo estos indicadores técnicos con otros laboratorios de IA, proveedores de servicios en la nube y autoridades. También ha reforzado la verificación de cuentas educativas y proyectos de investigación en seguridad.
Este artículo ha sido traducido con asistencia de inteligencia artificial. Para más información, consulte nuestros términos de uso.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic acusa a laboratorios de IA en China de robar datos de Claude
Investing.com - Anthropic acusó el lunes a tres laboratorios de inteligencia artificial en China de realizar actividades masivas de extracción de datos de su modelo Claude AI, alegando que estas empresas utilizan cuentas fraudulentas para mejorar ilegalmente sus propios modelos.
Esta compañía de IA afirmó que DeepSeek, Moonshot y MiniMax interactuaron con Claude más de 16 millones de veces a través de aproximadamente 24,000 cuentas fraudulentas, violando los términos de servicio y las restricciones de acceso regionales. Estas acusaciones surgieron después de que OpenAI hiciera reclamos similares, en los que informó a los legisladores de la Cámara de Representantes que DeepSeek utilizaba técnicas de destilación para potenciar su modelo.
Estos laboratorios chinos emplean un método llamado destilación, que consiste en entrenar modelos menos capaces utilizando la salida de sistemas más avanzados. Aunque la destilación es una técnica legítima utilizada por las empresas de IA para crear versiones más pequeñas de sus modelos, Anthropic afirmó que cuando los competidores la usan para obtener capacidades de otros laboratorios, esa práctica se vuelve ilegal.
Según Anthropic, estas actividades apuntan a las funciones más avanzadas de Claude, incluyendo capacidades de razonamiento, uso de herramientas y codificación. La compañía indicó que identificó estas operaciones mediante la asociación de direcciones IP, metadatos de solicitudes y métricas de infraestructura.
Se reporta que DeepSeek generó más de 150,000 interacciones centradas en capacidades de razonamiento y tareas basadas en criterios de puntuación. La operación utilizó tráfico sincronizado entre varias cuentas, con patrones similares y métodos de pago compartidos. Anthropic afirmó que las solicitudes de DeepSeek pedían a Claude explicar paso a paso el razonamiento interno detrás de las respuestas, generando datos de entrenamiento para cadenas de pensamiento. También observaron tareas en las que Claude fue utilizado para crear alternativas a consultas políticamente sensibles relacionadas con disidentes, líderes de partidos y autoritarismo.
Moonshot AI realizó más de 3.4 millones de interacciones relacionadas con razonamiento, uso de herramientas, codificación y visión por computadora. La operación utilizó cientos de cuentas fraudulentas a través de múltiples vías de acceso. Anthropic atribuyó esta actividad a la compañía mediante la comparación de metadatos de solicitudes con perfiles públicos de empleados senior de Moonshot.
MiniMax generó más de 13 millones de interacciones centradas en codificación y uso de herramientas. Anthropic detectó esta actividad cuando MiniMax aún estaba en modo activo, antes de que lanzaran su modelo de entrenamiento. Cuando MiniMax lanzó un nuevo modelo durante la operación, esa laboratorio chino redirigió casi la mitad del tráfico en 24 horas para capturar las capacidades del sistema más reciente.
Anthropic afirmó que estos laboratorios acceden a Claude a través de servicios comerciales de reventa de acceso a modelos de IA. Estos servicios operan redes de cuentas fraudulentas, distribuyendo tráfico en la API de Anthropic y en plataformas en la nube de terceros. En un caso, una sola red de agentes gestionaba más de 20,000 cuentas fraudulentas simultáneamente.
Por motivos de seguridad nacional, Anthropic no ofrece acceso comercial a Claude en China. La compañía señaló que los modelos destilados ilegalmente carecen de las garantías de seguridad necesarias, lo que representa un riesgo. Los sistemas desarrollados por Anthropic y otras empresas estadounidenses están diseñados para impedir que actores maliciosos utilicen IA para desarrollar armas biológicas o realizar actividades cibernéticas maliciosas.
Anthropic afirmó que ha desarrollado sistemas de detección y herramientas de huellas digitales para identificar patrones de ataques de destilación en el tráfico de API. La compañía está compartiendo estos indicadores técnicos con otros laboratorios de IA, proveedores de servicios en la nube y autoridades. También ha reforzado la verificación de cuentas educativas y proyectos de investigación en seguridad.
Este artículo ha sido traducido con asistencia de inteligencia artificial. Para más información, consulte nuestros términos de uso.