Resultados de la búsqueda para "MPT"
2026-02-13
09:46

La cadena de bloques XRP desbloquea una nueva era en la custodia de tokens, después del lanzamiento de XLS-85, activos como RLUSD podrán ser bloqueados en la cadena

El 13 de febrero, se anunció que XRP Ledger ha activado oficialmente la enmienda de custodia de tokens XLS-85, que permite a los usuarios crear cuentas de custodia para tokens intercambiables ya emitidos. Esto significa que, además de XRP en sí, los tokens Trust Line y los tokens de uso múltiple (MPT) también podrán bloquearse en la cadena bajo ciertas condiciones, proporcionando una gestión de activos más flexible para las finanzas descentralizadas y las aplicaciones empresariales. La enmienda fue respaldada por 30 validadores el 30 de enero de 2026, alcanzando el umbral de activación, y se implementó dos semanas después. Anteriormente, XLS-85 estuvo cerca de ser aprobado en septiembre de 2025, pero debido a desacuerdos por problemas de incompatibilidad con el estándar MPT, el apoyo cayó a 16 votos. El validador XRPL dUNL Vet señaló que la contabilidad de custodia tenía deficiencias en las tarifas de transferencia y el seguimiento de la oferta, por lo que la comunidad lanzó fixTokenEscrowV1 y lo incorporó en Rippled v3.0.0, recuperando la confianza y promoviendo la activación final.
Más
XRP-1,31%
MPT10,51%
02:48

🚀¡El concurso de trading de Miracle Play (MPT) comienza con premios por valor de $10,000! ⏳ Período del evento: 22.04-29.04 11:00 a. m. [UTC+8] ✅ Opere $MPT$ para ganar una parte de $8,000 ✅ Beneficios exclusivos para que los nuevos usuarios compartan un premio acumulado de $ 1,000 ✅ Invita a nuevos usuarios y disfruta de $1,000 en recompensas 💸 Involúcrate: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Más
MPT10,51%
04:57

TinyLlama, un modelo de código abierto para mini IA, fue lanzado y ocupa solo 637 MB

Según un informe de Webmaster's Home del 6 de enero, el equipo de TinyLlama lanzó un modelo de código abierto de IA de alto rendimiento que ocupa solo 637 MB, TinyLlama. TinyLlama es una versión compacta del modelo de lenguaje de código abierto de Meta, Llama2, que tiene mil millones de parámetros y un rendimiento superior para la investigación de modelos de lenguaje multidominio, y su versión final supera a los modelos de lenguaje de código abierto existentes de tamaño comparable, incluidos Pythia-1.4B, OPT-1.3B y MPT-1.3B. Se informa que TinyLlama se puede implementar en dispositivos de borde y también se puede usar para ayudar en la decodificación especulativa de modelos grandes.
Más
07:39

Actualización de Baidu Smart Cloud "Qianfan Large Model Platform": acceso a 33 modelos, incluido LLaMA2

Según el informe "Kechuangban Daily" del 2 de agosto, la plataforma de modelos a gran escala Baidu Smart Cloud Qianfan ha completado una nueva ronda de actualizaciones, accediendo por completo a 33 modelos a gran escala, incluida la serie completa de LLaMA2, ChatGLM2, RWKV, MPT, Dolly , OpenLLaMA y Falcon, se ha convertido en la plataforma con la mayor cantidad de modelos grandes en China, y los modelos conectados han experimentado una mejora de rendimiento secundaria de la plataforma Qianfan, y el costo del razonamiento del modelo se puede reducir en un 50%. Al mismo tiempo, la plataforma Qianfan ha lanzado una biblioteca de plantillas preestablecidas con 103 plantillas, que cubren más de diez escenarios de diálogo, juegos, programación y escritura. Además, esta actualización lanzó una serie de complementos nuevos nuevamente.
Más
06:55

La empresa de inteligencia artificial MosaicML lanzó el modelo de 30 mil millones de parámetros MPT-30B, diciendo que el costo de capacitación es solo una fracción de los productos de la competencia.

Según el informe de IT House del 25 de junio, la empresa de inteligencia artificial MosaicML lanzó recientemente su modelo de lenguaje MPT-30B. El modelo tiene 30 mil millones de parámetros y el costo de capacitación es "solo una fracción de otros modelos similares de la competencia". amplía la aplicación de modelos de IA en una gama más amplia de campos. Naveen Rao, CEO y cofundador de MosaicML, dijo que el costo de capacitación de MPT-30B es de 700 000 dólares estadounidenses (alrededor de 5,0244 millones de yuanes), que es mucho más bajo que las decenas de millones de dólares necesarios para productos similares como GPT- 3. . Además, debido al menor costo y tamaño más pequeño de MPT-30B, también se puede entrenar más rápidamente y es más adecuado para su implementación en hardware local. Se informa que MosaicML utiliza la tecnología Alibi y FlashAttention para optimizar el modelo, que puede lograr una longitud de texto más larga y una mayor utilización de la computación GPU. MosaicML es también uno de los pocos laboratorios que puede usar la GPU Nvidia H100. En comparación con los logros anteriores, el rendimiento actual de cada GPU ha aumentado más de 2,4 veces, lo que puede acelerar el tiempo de finalización.
Más