Mensaje de Gate News, 20 de abril — Google está en conversaciones con el fabricante estadounidense de chips Marvell Technology para desarrollar dos chips personalizados diseñados para ejecutar cargas de trabajo de IA de manera más eficiente y reducir la dependencia de las GPU de Nvidia.
Uno de los chips será una unidad de procesamiento de memoria (MPU) diseñada para trabajar junto con la unidad de procesamiento de tensores (TPU) de Google, mientras que la otra será una nueva TPU construida específicamente para la inferencia de modelos de IA. Las compañías buscan completar el diseño de la MPU tan pronto como en 2027 antes de pasar a la producción de pruebas.
La asociación refleja el impulso más amplio de Google por desarrollar silicio propietario para su infraestructura de IA en la nube, lo que le permitirá optimizar el rendimiento mientras construye alternativas a las soluciones basadas en GPU existentes.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
El volumen de llamadas a modelos de IA de China cae 23.8% semana contra semana; EE. UU. lo supera por primera vez en dos meses
El volumen global de llamadas a modelos de IA cayó a 206 billones de tokens la semana pasada. Las llamadas de China bajaron a 444.1 billones, mientras que el volumen de Estados Unidos subió a 490.8 billones, superando a China por primera vez en dos meses. Cuatro de los nueve modelos principales son chinos, con DeepSeek V3.2 en segundo lugar en llamadas.
GateNewsHace1m
Axios exclusivo: La NSA de EE. UU. elude la lista negra del Pentágono usando Anthropic Mythos; Dario Amodei viaja con urgencia a la Casa Blanca para negociar
La NSA de EE. UU., a pesar de la prohibición en el Pentágono de Anthropic, sigue utilizando su modelo potente Mythos, lo que ha provocado discrepancias y cuestionamientos entre departamentos gubernamentales. El uso de la NSA y la orden de prohibición del Pentagono forman un conflicto interno, y ponen de manifiesto la falta de coherencia interna en la gobernanza de la IA en Estados Unidos. El CEO de Anthropic ya se reunió con funcionarios de la Casa Blanca para tratar los límites de uso y cuestiones de seguridad; en el futuro podría ajustar los procesos de contratación del gobierno y los estándares de transparencia.
ChainNewsAbmediaHace3m
Databricks 称:顶级 AI 模型在日常企业任务中落后 更小的专用模型表现更佳
David Meyer,来自 Databricks,强调顶级 AI 模型在日常企业任务中的局限性,并对比了它们在复杂问题上的成功。数据类型的基本差异会影响性能,这促使人们转向更小、更高效、针对特定工作流定制的模型,以提升 AI 应用的可靠性和成本效益。
GateNewsHace16m
Terceros irrumpen con IA en Vercel; Orca confirma de urgencia el acuerdo de seguridad mediante la rotación de claves.
El intercambio descentralizado Orca anunció que ya se completó la rotación de claves y confirmó la seguridad de los fondos de los usuarios. Esto se debe a que la plataforma en la nube Vercel sufrió un ataque. La vía de ataque consistió en aprovechar una integración de OAuth de una herramienta de IA de terceros para ingresar al sistema de Vercel; una brecha en la cadena de suministro hace que las medidas de seguridad tradicionales sean difíciles de detectar. Vercel recuerda a los usuarios que revisen las variables de entorno para reforzar la protección de seguridad y señala que la dependencia de los proyectos de criptomonedas de la infraestructura en la nube crea un nuevo riesgo de seguridad.
MarketWhisperHace29m
Claude Haiku 3 se retira oficialmente el 19/4: Anthropic obliga a migrar a Haiku 4.5, los desarrolladores deben cambiar el ID del modelo y la configuración de parámetros
El modelo Claude Haiku 3 se retirará oficialmente del servicio el 19 de abril de 2026; los desarrolladores deben actualizar el ID del modelo en las solicitudes de la API a Haiku 4.5 y tener en cuenta dos cambios incompatibles. Las empresas deben reforzar la gestión del ciclo de vida de los modelos de IA para evitar interrupciones del servicio causadas por la jubilación de modelos. Se recomienda que los desarrolladores actualicen el código de inmediato y supervisen los cambios en los costos.
ChainNewsAbmediaHace29m
Claude Opus 4.7 Ocultación del aumento de precio: un nuevo Tokenizer hace que el mismo texto consuma 37–47% más de tokens, la tarifa no cambia, pero la factura sale más cara
El nuevo tokenizador de la versión 4.7 de Claude Opus de Anthropic divide el mismo texto en más tokens, lo que provoca un aumento del 37–47% en el costo de entrada y salida. Aunque las tarifas oficiales no cambian, las empresas deben revisar las cláusulas contractuales y la supervisión de costos, ya que la actualización del modelo puede provocar desbordes de presupuesto. Además, la falta de transparencia atraerá la atención de las autoridades reguladoras, convirtiéndose en un tema nuevo en la industria de la IA.
ChainNewsAbmediaHace32m