El equipo de OpenAI, Anthropic y Google se une para combatir la destilación de modelos de IA por parte de competidores chinos

Mensaje de noticias de Gate, 16 de abril: OpenAI, Anthropic y la subsidiaria de Alphabet de Google (Alphabet) han comenzado a colaborar para contrarrestar los esfuerzos de los competidores chinos por extraer salidas de los modelos de IA fronterizos de EE. UU. y mejorar sus propias capacidades, según Bloomberg. Las tres empresas están compartiendo información a través del Frontier Model Forum, una organización industrial sin fines de lucro cofundada por OpenAI, Anthropic, Google y Microsoft en 2023.

La iniciativa tiene como objetivo identificar intentos de destilación de datos adversarios que violen los términos de servicio. La destilación de datos se refiere a técnicas utilizadas para replicar el rendimiento de modelos avanzados de IA mediante el análisis de sus salidas, lo que permite a los competidores desarrollar sistemas comparables sin acceso directo a la tecnología patentada.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Tencent lanza y abre código de la vista previa de Hunyuan Hy3 con 295B de parámetros

Mensaje de Gate News, 23 de abril — Tencent presentó y lanzó como código abierto una vista previa de Hunyuan Hy3, un modelo de lenguaje híbrido de mezcla de expertos (MoE) que incorpora la fusión entre pensamiento rápido y lento. El modelo consta de 295 mil millones de parámetros totales con 21 mil millones de parámetros activos, y admite una longitud máxima de contexto de 256K

GateNewsHace8m

Corea del Sur y Vietnam firman 70+ memorandos de entendimiento sobre IA, energía e infraestructura de datos

Mensaje de Gate News, 23 de abril — Corea del Sur y Vietnam firmaron más de 70 memorandos de entendimiento (MOUs) durante la visita de Estado del presidente Lee Jae Myung a Hanói el 23 de abril, abarcando IA, energía, infraestructura y telecomunicaciones. Un foro empresarial al que asistieron más de 500 ejecutivos discutió el ecosistema de IA y de la industria energética, con grandes conglomerados coreanos como Samsung, SK, LG y Hyundai representados.

GateNewsHace8m

Motor de respuesta por IA contaminado en masa: 56% de las respuestas correctas de Gemini 3 no tiene respaldo de fuentes

Este texto señala que el motor de preguntas y respuestas con IA consulta referencias web en tiempo real; si la fuente es generada por IA o carece de evidencia, se contamina el resultado. No es necesario volver a entrenar para que surta efecto, y esto se denomina contaminación por recuperación (retrieval contamination). Aunque Gemini3 tiene una alta tasa de acierto, el 56% de las respuestas carece de fuentes verificables; casos como Lily Ray y Grokipedia muestran que la IA es fácilmente engañable con contenido inventado. La conclusión es que la capa de citas se desacopla de autores confiables, formando un ciclo de contaminación de auto-refuerzo; aun así, los usuarios deben volver a los orígenes originales y no considerar la respuesta como el punto final de la verificación de hechos.

ChainNewsAbmediaHace16m

Anthropic 告法院:已部署到五角大楼的 AI 模型没有“杀伤开关('Kill Switch')”

Gate News сообщение,4月23日——Anthropic 向美国哥伦比亚特区巡回上诉法院提交了一份文件,称一旦其 AI 模型被部署在五角大楼环境中,公司既没有可见性,也没有技术手段来控制或关闭这些模型,并且不存在“杀伤开关("kill switch")”

GateNewsHace18m

Anthropic lanza /ultrareview para Claude Code: revisión de código en la nube con múltiples agentes

Mensaje de Gate News, 23 de abril — Anthropic ha presentado /ultrareview (vista previa de investigación), una función de revisión de código multiagente basada en la nube para Claude Code. Los usuarios pueden escribir /ultrareview en la CLI para lanzar un grupo de agentes de revisión en un entorno remoto aislado que trabajan en paralelo para examinar las diferencias entre la rama actual y la rama predeterminada incluidos cambios sin confirmar en Git, o revisar directamente PRs de GitHub proporcionando un número de PR. Todo el proceso no requiere recursos locales y normalmente tarda de 5 a 10 minutos, con los resultados devueltos a la sesión como notificaciones. La distinción clave con la herramienta local /review radica en su mecanismo de verificación: cada hallazgo se reproduce y confirma de forma independiente por un agente separado, centrado en fallos reales en lugar de sugerencias de estilo de código. Anthropic sitúa ambas herramientas para etapas diferentes del desarrollo—/review para comentarios rápidos durante la codificación, y /ultrareview para revisiones profundas de cambios críticos como autenticación o migración de datos antes de fusionar. En cuanto a precios, /ultrareview utiliza facturación adicional por uso y no consume el uso incluido en el plan. Los usuarios de Pro y Max disponen de 3 usos gratuitos cada uno antes del 5 de mayo únicos, no renovables, tras lo cual cada revisión cuesta aproximadamente a en función de la escala de los cambios. Los usuarios de Team y Enterprise no tienen asignación gratuita. La función requiere autenticación de la cuenta de Claude.ai y no está disponible para Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, ni para organizaciones con la retención de datos en cero habilitada.

GateNewsHace26m

OpenAI lanza agentes de espacio de trabajo de ChatGPT para la automatización de flujos de trabajo empresariales

Mensaje de Gate News, 23 de abril — OpenAI anunció la implementación de agentes de espacio de trabajo en ChatGPT el 22 de abril, presentando agentes de IA compartidos diseñados para automatizar tareas complejas y flujos de trabajo ampliados entre herramientas y equipos dentro de una organización. Los agentes están impulsados por Codex y operan en un entorno basado en la nube con acceso a archivos, ejecución de código, aplicaciones conectadas y funciones de memoria. Los agentes de espacio de trabajo pueden realizar procesos de varios pasos mientras operan bajo permisos, reglas de gobernanza y controles de acceso definidos por la organización. Admiten la colaboración al compartirse entre ChatGPT o plataformas integradas como Slack, y pueden programar tareas recurrentes y operar sin supervisión directa del usuario. Algunos casos de uso de ejemplo incluyen agentes de ventas que agregan notas de llamadas y datos de cuentas para evaluar clientes potenciales y redactar comunicaciones de seguimiento, agregación de comentarios de producto, informes semanales automatizados con visualización de datos, calificación de clientes potenciales y automatización de divulgación integrada con sistemas CRM, y análisis de riesgo de proveedores que abarca señales financieras y de cumplimiento. La función está disponible actualmente en una vista previa de investigación para usuarios de los planes ChatGPT Business, Enterprise, Edu y Teachers. Permanecerá gratuita hasta principios de mayo de 2026, después de lo cual OpenAI planea introducir una estructura de precios basada en créditos. La empresa indicó que se planean más desarrollos, incluidos disparadores de automatización ampliados, paneles de análisis mejorados e integración más profunda en aplicaciones empresariales.

GateNewsHace28m
Comentar
0/400
Sin comentarios