Mensaje de Gate News, 29 de abril — Los pesos del modelo flash Ling-2.6 de Ant Group ahora se han publicado como código abierto, después de haber estado disponibles previamente solo vía API. El modelo cuenta con 104 mil millones de parámetros totales, con 7.4 mil millones activados por inferencia, una ventana de contexto de 256K y licencia MIT. Hay versiones de precisión BF16, FP8 e INT4 disponibles en HuggingFace y ModelScope.
Ling-2.6-flash introduce mejoras en la atención lineal híbrida sobre Ling 2.0, actualizando el GQA original a una arquitectura híbrida 1:7 MLA plus Lightning Linear combinada con MoE altamente disperso. La eficiencia de inferencia supera significativamente a la de modelos comparables: la velocidad máxima de generación alcanza 340 tokens/s en 4 GPUs H20, con un rendimiento de prefill y decode aproximadamente 4 veces mayor que el de modelos comparables de código abierto. Los puntos de referencia relacionados con agentes muestran un rendimiento sólido: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval y PinchBench logran o se acercan a niveles SOTA. En toda la suite de benchmarks de Artificial Analysis, el consumo total de tokens es de solo 15 millones. En AIME 2026, el modelo obtuvo 73.85%.
El sitio web oficial de Ant Group también lista las versiones insignia Ling-2.6-1T (de cientos de miles de millones de parámetros) y Ling-2.6-mini (de versión ligera), aunque a la fecha de publicación, sus pesos aún no se han lanzado en HuggingFace, con solo la serie flash disponible para descarga.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Cognition establece Singapur como sede de APAC y pone la mira en la expansión regional
Mensaje de Gate News, 29 de abril — Cognition, la startup de codificación con IA detrás de Devin, anunció el 29 de abril que establecerá Singapur como su sede de Asia-Pacífico para supervisar la expansión regional en toda el Sudeste Asiático, Australia, India y Corea del Sur.
Richard Spence liderará las operaciones de APAC
GateNewsHace37m
Google y el Pentágono firman un acuerdo de IA confidencial; empleados publican una carta abierta en contra
Según The Information, en un reporte del 28 de abril, Google ha firmado un acuerdo para proporcionar al Pentágono modelos de inteligencia artificial (IA) para trabajos confidenciales. The New York Times, citando a personas familiarizadas con el tema, afirma que el acuerdo permite al Departamento de Defensa utilizar la IA de Google para fines gubernamentales legítimos, con una naturaleza similar a los acuerdos confidenciales de despliegue de IA que el Pentágono firmó el mes pasado con OpenAI y xAI.
MarketWhisperHace58m
Informe de investigación de a16z Crypto: la tasa de explotación de vulnerabilidades DeFi de los agentes de IA alcanza el 70%
Según el informe de investigación publicado por a16z Crypto el 29 de abril, bajo condiciones en las que los agentes de IA están equipados con conocimientos del dominio de manera estructurada, la tasa de éxito al reproducir una vulnerabilidad de manipulación del precio de Ethereum alcanza el 70%; en un entorno de sandbox sin ningún conocimiento del dominio, la tasa de éxito es solo del 10%. El informe también registra casos en los que los agentes de IA eluden independientemente las restricciones del sandbox para acceder a información futura de transacciones, así como patrones de fallo sistemático cuando los agentes elaboran planes de ataque rentables de varios pasos.
MarketWhisperhace1h
Modelos de OpenAI para migrar gradualmente al chip Trainium personalizado de Amazon, dice Altman que está “mirando con ilusión” hacia ello
Mensaje de Gate News, 29 de abril — Los modelos de OpenAI que se ejecutan en Amazon Web Services' Bedrock migrarán gradualmente a Trainium, el chip de IA diseñado a medida por Amazon, según declaraciones recientes del CEO de OpenAI, Sam Altman, y de ejecutivos de AWS. Actualmente, los modelos funcionan en un entorno mixto usando tanto GPU y Tr
GateNewshace2h
Altman:随着 GPT-5.5 将重点转向任务完成,“基于代币的定价”正走向过时
Gate News 消息,4 月 29 日 — OpenAI 首席执行官 Sam Altman 在接受 Stratechery 的 Ben Thompson 采访时表示,基于代币的定价并非 AI 服务的长期可行模式。以 GPT-5.5 为例,Altman 指出,尽管单代币价格相比 GPT-5.4 显著更高,但该模型使用的代币数量要少得多来完成同一任务,这意味着客户并不在乎代币数量——他们只关心任务是否完成以及总成本。
GateNewshace2h
Sam Altman publica capturas de pantalla del modo doble de Codex; las funciones de oficina y de programación se separan oficialmente
La captura y la declaración publicadas por el CEO de OpenAI, Sam Altman, el 29 de abril en la plataforma X indican que Codex está lanzando una nueva interfaz de guía; cuando los usuarios entran por primera vez, deben elegir entre dos modos: Excelmogging y Codemaxxing. Los usuarios activos semanales de Codex actualmente ya superan los 4 millones, y los casos de uso se han ampliado desde la generación de código hasta usos no técnicos.
MarketWhisperhace2h