Resultados de la búsqueda para "GPT"
2026-04-02
02:29

El portal de intercambio de tokens ha retirado del mercado 29 tokens para su cotización y ha realizado recompra para los usuarios que cumplen los requisitos.

Noticias de Gate: según el anuncio oficial de Gate Gate ha retirado de la lista los mercados de negociación de 29 tokens, incluidos POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST, etc. Tras una nueva evaluación de estos tokens por parte de la plataforma, no cumplen con los estándares para habilitar su negociación. Para los usuarios que hayan presentado el formulario y cumplan con los requisitos, Gate ha depositado el importe de recompra en sus cuentas. Después de la retirada, los usuarios aún pueden seguir usando la billetera de Gate para almacenar activos; la fecha exacta de retirada de las funciones de la billetera y los detalles de operación se notificarán por separado.
Más
10:00

La plataforma de intercambio Gate elimina de la lista 29 tokens, como POWERLOOM y ZAP, y ya ha recomprado a los usuarios que cumplen los requisitos

Noticias de Gate. Según el anuncio oficial de Gate, Gate ha eliminado de la lista los mercados de trading de 29 tokens, incluidos POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST, entre otros. Tras la evaluación, los tokens anteriores no cumplen con los estándares para habilitar el trading. Gate ha realizado recompras a los usuarios que poseen estos tokens; y, para los usuarios que cumplen los requisitos, el importe de la recompra se ha depositado en sus cuentas de Gate. Después de la eliminación de la lista, los usuarios aún pueden seguir utilizando Gate para almacenar activos como monedero de los tokens mencionados. El calendario específico de desactivación de la función de monedero y los detalles operativos se notificarán por separado mediante anuncios oficiales.
Más
05:07

20B modelo pequeño de búsqueda alcanza la capacidad de GPT-5 y Opus: modelo de búsqueda Agent Context-1 de la base de datos vectorial Chroma de código abierto.

El proveedor de bases de datos vectoriales de código abierto Chroma ha lanzado Context-1, un modelo de búsqueda para agentes con 20.000 millones de parámetros orientado a la recuperación multironda. El modelo utiliza una técnica de contexto autogenerado y se entrena en múltiples tareas mediante aprendizaje por refuerzo y mecanismos de plan de estudios, con un rendimiento sobresaliente, especialmente en los ámbitos de la web, las finanzas y el derecho, y también muestra capacidad de búsqueda entre dominios en el sector de los correos electrónicos.
Más
04:22

¿Se acerca el "momento GPT" de la inteligencia encarnada? Axis Robotics anuncia el fin de las pruebas y el próximo lanzamiento en la cadena Base

> Fuente del artículo: Axis Axis Robotics está reestructurando la diversidad de datos y los métodos de producción a escala de la inteligencia encarnada mediante una estrategia de Simulation-First (Primero la Simulación). En 2025, múltiples rutas tecnológicas en la industria robótica están converging rápidamente: la actualización de la commoditización de la cadena de suministro de hardware encarnado ha hecho posible por primera vez que los prototipos costosos del pasado tengan una posibilidad realista de despliegue a escala; los modelos Vision-Language-Action (VLA) aportan un «cerebro» a los robots que les permite comprender semántica, razonar y planificar; y la pirámide de datos multicapa compuesta por priors de video hasta síntesis de simulación también está suministrando un flujo continuo de combustible para la evolución continua de la inteligencia encarnada. Sin embargo, la industria aún enfrenta un cuello de botella más crítico: datos. En comparación con los modelos de lenguaje grandes y la conducción autónoma, la inteligencia encarnada aún presenta una enorme brecha de datos en la fase de preentrenamiento.
Más
01:39

Herramienta de programación impulsada por IA Cursor lanza el modelo Composer 2, con rendimiento superior a Opus 4.6, precio reducido al 14% de la generación anterior

Cursor lanzó el 20 de marzo su modelo de programación de tercera generación Composer 2, con precios significativamente reducidos a $0.50 por millón de tokens de entrada y $2.50 por millón de tokens de salida, junto con una versión rápida. Composer 2 supera al modelo anterior en múltiples pruebas comparativas, pero sigue siendo inferior a GPT-5.4, siendo la mejora principal resultado de la continuación del pre-entrenamiento y aprendizaje por refuerzo del modelo base. El modelo está disponible únicamente para uso interno de Cursor, y su empresa matriz Anysphere tiene una valoración de 29.3 mil millones de dólares.
Más
00:02

OpenAI lanzó GPT-5.4 mini y nano, con precios hasta 4 veces más altos que la generación anterior

OpenAI lanzó el 18 de marzo nuevos modelos GPT-5.4 mini y GPT-5.4 nano, destinados a escenarios multimodales y de programación, con un aumento significativo en los precios. GPT-5.4 mini demuestra un desempeño superior en pruebas de referencia de programación, admite contexto a gran escala y operaciones multifuncionales. Además, los usuarios de la versión gratuita de ChatGPT también experimentarán las nuevas funciones de razonamiento.
Más
15:32

Rakuten Group lanza Rakuten AI 3.0, modelo de lenguaje grande en japonés que genera controversia por sospechas de estar basado en arquitectura de DeepSeek

El Grupo Rakuten lanzó el 17 de marzo Rakuten AI 3.0, un modelo de lenguaje grande especializado en japonés, afirmando superar a GPT-4o en múltiples pruebas de japonés. Sin embargo, los usuarios de internet descubrieron que el modelo podría estar basado en DeepSeek, cuestionando su sesgo hacia China y la autenticidad de su tecnología de desarrollo independiente, lo que ha generado debates.
Más
08:53

Rakuten lanza el modelo Rakuten AI 3.0, los archivos de configuración muestran que la arquitectura subyacente es DeepSeek V3

El Grupo Rakuten anunció el 17 de marzo el lanzamiento de un modelo de IA de alto rendimiento llamado Rakuten AI 3.0, que cuenta con 671 mil millones de parámetros y ha sido optimizado para el idioma japonés, afirmando que supera a GPT-4 en varias pruebas de referencia. Este modelo es de código abierto y gratuito bajo la licencia Apache 2.0, basado en un ajuste fino del modelo DeepSeek V3, con apoyo en recursos computacionales proporcionados por el gobierno japonés.
Más