Zhipu publicó una carta de disculpa por el Plan de Codificación GLM el 21 de febrero, y anunció un plan de gestión y compensación.
Zhipu afirmó que esta actualización cometió principalmente tres errores: falta de transparencia en las reglas, ritmo de implementación en modo de prueba de GLM-5 demasiado lento, y un diseño rudimentario del mecanismo de actualización para usuarios antiguos.
Zhipu explicó que después del lanzamiento de GLM-5, el tráfico superó las expectativas, y el ritmo de expansión de la compañía no pudo mantenerse, por lo que se abrió gradualmente GLM-5 en orden de Max, Pro y Lite. Actualmente, los usuarios Max ya tienen acceso completo, aunque los usuarios Pro, aunque ya están habilitados, podrían experimentar limitaciones durante las horas pico debido a la alta carga del clúster. Los usuarios Lite serán habilitados gradualmente en modo de prueba fuera de las horas pico después de las vacaciones. Para los usuarios Lite y Pro afectados, la compañía apoya solicitudes de reembolso autónomas.
Es importante destacar que el 20 de febrero, las acciones de Zhipu (02513.HK), líder en modelos grandes de IA, cerraron en alza contraria a la tendencia, con un aumento del 42.72% en un solo día, alcanzando los 725 dólares de Hong Kong, estableciendo un nuevo máximo histórico y alcanzando una capitalización de mercado de 323.2 mil millones de dólares de Hong Kong. En 43 días desde su cotización, el precio de las acciones ha aumentado un 524% respecto a los 116.2 dólares de Hong Kong de la oferta pública inicial.
El 20 de febrero, Kuaishou (01024.HK) cerró con una caída del 2.78%, con una capitalización de mercado de 289.4 mil millones de dólares de Hong Kong; JD.com (09618.HK) cayó cerca del 2%, con una capitalización de 330.9 mil millones de dólares de Hong Kong; Ctrip (09961.HK) cayó cerca del 1%, con una capitalización de 296.7 mil millones de dólares de Hong Kong; Baidu Group (09888.HK) cayó un 6.25%, con una capitalización de 354.8 mil millones de dólares de Hong Kong. Esto significa que Zhipu ya se encuentra en el primer nivel del sector TMT en Hong Kong en términos de valor de mercado.
Zhipu lanzó oficialmente su nuevo modelo insignia GLM-5 el 12 de febrero, que en escenarios de programación y desarrollo mejora en promedio más del 20% respecto a la generación anterior, con una experiencia de programación realista que se acerca al nivel de Claude Opus 4.5. En las evaluaciones de agentes BrowseComp, MCP-Atlas y τ2-Bench, logró el mejor rendimiento en el campo de código abierto.
Tras el lanzamiento de GLM-5, debido a la alta demanda, Zhipu ajustó el precio del plan de codificación GLM al día siguiente, con un aumento del 30% en China y más del 100% en el extranjero, convirtiéndose en la primera empresa nativa de IA en China en aumentar los precios de servicios comerciales de modelos grandes. El nuevo plan se agotó inmediatamente tras su lanzamiento, estableciendo un nuevo récord en la industria por la venta de paquetes de modelos de IA de programación nacionales.
Zhipu fue fundada en 2019, derivada del Laboratorio de Ingeniería del Conocimiento de la Universidad Tsinghua (KEG, uno de los principales laboratorios de IA en China). El profesor Tang Jie, del Departamento de Computación de Tsinghua, es el científico jefe; el doctor Zhang Peng, líder en innovación de Tsinghua, es CEO y director general; y Liu Debing, exalumno de Tsinghua, es el presidente.
Esta compañía es conocida como “el OpenAI de China” y es la principal competidora de OpenAI. A finales de 2020, Zhipu desarrolló la arquitectura de preentrenamiento GLM; en 2021, completó el entrenamiento del modelo de 10 mil millones de parámetros GLM-10B, y en ese mismo año, utilizó la arquitectura MoE para entrenar con éxito un modelo disperso de billones de parámetros que converge; en 2022, lanzó el modelo de preentrenamiento multilingüe chino-inglés de más de 100 mil millones de parámetros GLM-130B y lo hizo de código abierto, siendo el único modelo principal de gran escala en Asia incluido en la evaluación de Stanford en 2022.
Texto completo de la disculpa de Zhipu:
(Fuente: Daily Economic News)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El líder en modelos de IA, Zhipu, se disculpa y anuncia planes de gestión y compensación
Zhipu publicó una carta de disculpa por el Plan de Codificación GLM el 21 de febrero, y anunció un plan de gestión y compensación.
Zhipu afirmó que esta actualización cometió principalmente tres errores: falta de transparencia en las reglas, ritmo de implementación en modo de prueba de GLM-5 demasiado lento, y un diseño rudimentario del mecanismo de actualización para usuarios antiguos.
Zhipu explicó que después del lanzamiento de GLM-5, el tráfico superó las expectativas, y el ritmo de expansión de la compañía no pudo mantenerse, por lo que se abrió gradualmente GLM-5 en orden de Max, Pro y Lite. Actualmente, los usuarios Max ya tienen acceso completo, aunque los usuarios Pro, aunque ya están habilitados, podrían experimentar limitaciones durante las horas pico debido a la alta carga del clúster. Los usuarios Lite serán habilitados gradualmente en modo de prueba fuera de las horas pico después de las vacaciones. Para los usuarios Lite y Pro afectados, la compañía apoya solicitudes de reembolso autónomas.
Es importante destacar que el 20 de febrero, las acciones de Zhipu (02513.HK), líder en modelos grandes de IA, cerraron en alza contraria a la tendencia, con un aumento del 42.72% en un solo día, alcanzando los 725 dólares de Hong Kong, estableciendo un nuevo máximo histórico y alcanzando una capitalización de mercado de 323.2 mil millones de dólares de Hong Kong. En 43 días desde su cotización, el precio de las acciones ha aumentado un 524% respecto a los 116.2 dólares de Hong Kong de la oferta pública inicial.
El 20 de febrero, Kuaishou (01024.HK) cerró con una caída del 2.78%, con una capitalización de mercado de 289.4 mil millones de dólares de Hong Kong; JD.com (09618.HK) cayó cerca del 2%, con una capitalización de 330.9 mil millones de dólares de Hong Kong; Ctrip (09961.HK) cayó cerca del 1%, con una capitalización de 296.7 mil millones de dólares de Hong Kong; Baidu Group (09888.HK) cayó un 6.25%, con una capitalización de 354.8 mil millones de dólares de Hong Kong. Esto significa que Zhipu ya se encuentra en el primer nivel del sector TMT en Hong Kong en términos de valor de mercado.
Zhipu lanzó oficialmente su nuevo modelo insignia GLM-5 el 12 de febrero, que en escenarios de programación y desarrollo mejora en promedio más del 20% respecto a la generación anterior, con una experiencia de programación realista que se acerca al nivel de Claude Opus 4.5. En las evaluaciones de agentes BrowseComp, MCP-Atlas y τ2-Bench, logró el mejor rendimiento en el campo de código abierto.
Tras el lanzamiento de GLM-5, debido a la alta demanda, Zhipu ajustó el precio del plan de codificación GLM al día siguiente, con un aumento del 30% en China y más del 100% en el extranjero, convirtiéndose en la primera empresa nativa de IA en China en aumentar los precios de servicios comerciales de modelos grandes. El nuevo plan se agotó inmediatamente tras su lanzamiento, estableciendo un nuevo récord en la industria por la venta de paquetes de modelos de IA de programación nacionales.
Zhipu fue fundada en 2019, derivada del Laboratorio de Ingeniería del Conocimiento de la Universidad Tsinghua (KEG, uno de los principales laboratorios de IA en China). El profesor Tang Jie, del Departamento de Computación de Tsinghua, es el científico jefe; el doctor Zhang Peng, líder en innovación de Tsinghua, es CEO y director general; y Liu Debing, exalumno de Tsinghua, es el presidente.
Esta compañía es conocida como “el OpenAI de China” y es la principal competidora de OpenAI. A finales de 2020, Zhipu desarrolló la arquitectura de preentrenamiento GLM; en 2021, completó el entrenamiento del modelo de 10 mil millones de parámetros GLM-10B, y en ese mismo año, utilizó la arquitectura MoE para entrenar con éxito un modelo disperso de billones de parámetros que converge; en 2022, lanzó el modelo de preentrenamiento multilingüe chino-inglés de más de 100 mil millones de parámetros GLM-130B y lo hizo de código abierto, siendo el único modelo principal de gran escala en Asia incluido en la evaluación de Stanford en 2022.
Texto completo de la disculpa de Zhipu:
(Fuente: Daily Economic News)