Resultados da pesquisa de "MPT"
2026-02-13
09:46

XRP Ledger desbloqueia uma nova era de custódia de tokens, após o lançamento do XLS-85, ativos como RLUSD podem ser bloqueados na cadeia

Notícia de 13 de fevereiro, o XRP Ledger ativou oficialmente a emenda de custódia de tokens XLS-85, permitindo aos utilizadores criar contas de custódia para tokens intercambiáveis já emitidos. Isto significa que, além do próprio XRP, os tokens Trust Line e os tokens multifuncionais (MPT) também podem ser bloqueados na cadeia sob determinadas condições, oferecendo uma gestão de ativos mais flexível para finanças descentralizadas e aplicações empresariais. A emenda foi apoiada por 30 validadores em 30 de janeiro de 2026, atingindo o limiar de ativação, e foi lançada duas semanas depois. Anteriormente, o XLS-85 esteve perto de ser aprovado em setembro de 2025, mas divergências devido a incompatibilidades com o padrão MPT fizeram a taxa de apoio cair para 16 votos. O validador XRPL dUNL Vet apontou falhas na contabilidade de custódia na transferência de custos e no rastreamento da oferta, levando a comunidade a lançar o fixTokenEscrowV1, que foi incorporado no Rippled v3.0.0, recuperando a confiança e impulsionando a ativação final.
Mais
XRP-1,02%
MPT19,56%
02:48

🚀O Concurso de Negociação Miracle Play (MPT) arranca com $10.000 em Prémios! ⏳ Período do evento: 04.22-04.29 11:00AM [UTC+8] ✅ Negocie $MPT$ para ganhar uma parte de $8.000 ✅ Vantagens exclusivas para novos utilizadores partilharem um prizepool de $1.000 ✅ Convide novos usuários e desfrute de $1.000 em recompensas 💸 Participe: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Mais
MPT19,56%
04:57

TinyLlama, um modelo Open Source para mini AI, foi lançado e ocupa apenas 637 MB

De acordo com um relatório da Webmaster's Home em 6 de janeiro, a equipe TinyLlama lançou um modelo Open Source de IA de alto desempenho que ocupa apenas 637 MB, TinyLlama. TinyLlama é uma versão compacta do modelo de linguagem de código aberto Llama2 da Meta, que tem 1 bilhão de parâmetros e desempenho superior para pesquisa de modelos de linguagem de vários domínios, e sua versão final supera os modelos de linguagem de código aberto existentes de tamanho comparável, incluindo Pythia-1.4B, OPT-1.3B e MPT-1.3B. É relatado que TinyLlama pode ser implantado em dispositivos de borda e também pode ser usado para ajudar na decodificação especulativa de grandes modelos.
Mais
07:39

Atualização do Baidu Smart Cloud "Qianfan Large Model Platform": acesso a 33 modelos, incluindo LLaMA2

De acordo com o relatório "Kechuangban Daily" em 2 de agosto, a plataforma de modelo em grande escala Baidu Smart Cloud Qianfan concluiu uma nova rodada de atualizações, acessando totalmente 33 modelos em grande escala, incluindo a série completa de LLaMA2, ChatGLM2, RWKV, MPT, Dolly , OpenLLaMA e Falcon , tornou-se a plataforma com o maior número de modelos grandes na China, e os modelos conectados passaram por aprimoramento de desempenho secundário da plataforma Qianfan, e o custo do raciocínio do modelo pode ser reduzido em 50%. Ao mesmo tempo, a plataforma Qianfan lançou uma biblioteca preset_template com 103 modelos, abrangendo mais de dez cenários de diálogo, jogos, programação e escrita. Além disso, esta atualização liberou vários novos plug-ins novamente.
Mais
06:55

A empresa de IA MosaicML lançou o modelo de 30 bilhões de parâmetros MPT-30B, dizendo que o custo de treinamento é apenas uma fração dos produtos concorrentes

De acordo com o relatório da IT House em 25 de junho, a startup de IA MosaicML lançou recentemente seu modelo de linguagem MPT-30B. O modelo tem 30 bilhões de parâmetros e o custo de treinamento é "apenas uma fração de outros modelos concorrentes semelhantes". expande a aplicação de modelos de IA em uma ampla gama de campos. Naveen Rao, CEO e co-fundador da MosaicML, disse que o custo de treinamento do MPT-30B é de 700.000 dólares americanos (cerca de 5,0244 milhões de yuans), o que é muito inferior às dezenas de milhões de dólares necessários para produtos similares, como GPT- 3. . Além disso, devido ao menor custo e tamanho menor do MPT-30B, ele também pode ser treinado mais rapidamente e é mais adequado para implantação em hardware local. É relatado que o MosaicML usa a tecnologia Alibi e FlashAttention para otimizar o modelo, que pode alcançar um comprimento de texto mais longo e maior utilização da computação GPU. O MosaicML também é um dos poucos laboratórios que podem usar a GPU Nvidia H 100. Em comparação com as conquistas anteriores, a taxa de transferência atual de cada GPU aumentou mais de 2,4 vezes, o que pode trazer um tempo de conclusão mais rápido.
Mais