Suchergebnisse für "MOE"
2026-04-29
23:49

Xiaomis MiMo-V2.5-Serie geht Open Source: 1T-Parameter mit überlegener Token-Effizienz im Vergleich zu GPT-5.4

Gate News-Нachricht, 27. April — Das MiMo-Team von Xiaomi hat die Modellreihe MiMo-V2.5 großer Sprachmodelle unter der MIT-Lizenz als Open Source veröffentlicht und unterstützt kommerzielle Bereitstellung, fortgesetztes Training und Feintuning. Beide Modelle verfügen über ein Kontextfenster von 1 Million Tokens. MiMo-V2.5-Pro ist eine Reinform-Text-Mixture-of-Experts MoE Modell mit 1,02 Billionen Gesamtparametern und 1T aktiven Parametern.
Mehr
09:45

DeepSeek stellt TileKernels Open Source: GPU-Kernel-Bibliothek für das Training und die Inferenz großer Modelle

Gate News-Meldung, 23. April — DeepSeek hat TileKernels unter der MIT-Lizenz Open Source gestellt: eine GPU-Kernel-Bibliothek, die in TileLang geschrieben ist und für das Training und die Inferenz großer Sprachmodelle entwickelt wurde. TileLang ist eine domänenspezifische Sprache, die vom tile-ai-Team entwickelt wurde, um leistungsstarke GPU-Kernels auszudrücken in
Mehr