Tether旗下 Daten- und KI-Abteilung QVAC gab am 17. März eine bedeutende technische Durchbruch bekannt und präsentierte das weltweit erste plattformübergreifende LoRA-Feinabstimmungsframework, das die Microsoft BitNet (1-Bit LLM)-Architektur unterstützt. Diese Integration in QVAC Fabric reduziert den Speicher- und Rechenaufwand erheblich, sodass Billionen-Parameter-Modelle nicht mehr nur auf Unternehmens-GPUs beschränkt sind und eine lokale, vollständig private Schulung auf normalen Smartphones und Laptops ermöglicht wird.
(Vorgeschichte: Tether investiert in Axiym zur Erweiterung der Zahlungsinfrastruktur: Förderung der Integration von USDT in globale, regulatorische Zahlungssysteme)
(Hintergrund: Tether investiert branchenübergreifend in KI-Schlaftechnologie! Führungsinvestment bei Eight Sleep mit 50 Millionen USD, Bewertung steigt auf 1,5 Milliarden USD)
Inhaltsverzeichnis
Toggle
Im Bereich der künstlichen Intelligenz (KI) gilt das Training leistungsstarker Modelle traditionell als „Geldverbrennung“, stark abhängig von teuren NVIDIA-Systemen oder Cloud-Rechenleistung. Doch der Stablecoin-Riese Tether versucht, diese Regeln mit Technologie neu zu schreiben. Am 17. März kündigte Tether Data, die Techniksparte von Tether, die Einführung des weltweit ersten plattformübergreifenden BitNet LoRA-Feinabstimmungsframeworks für die QVAC (QuantumVerse Automatic Computer)-Plattform an.
Der Kern dieser Technologie liegt darin: Sie ermöglicht es, AI-Modelle mit „Billion-Parameter“-Größe direkt auf Smartphones für personalisiertes Lernen zu verwenden.
Dieser Durchbruch basiert auf Microsofts BitNet 1-Bit LLM-Architektur. Durch die Optimierung mit QVAC Fabric werden Speicherbedarf und Rechenaufwand des BitNet-Modells auf ein Minimum reduziert. Laut Ankündigung unterstützt das Framework nicht nur gängige NVIDIA-GPUs, sondern ist auch vollständig kompatibel mit Intel-, AMD-, Apple M-Serie-Chips sowie mobilen Adreno (Android), Mali und Apple Bionic GPUs.
Das bedeutet, dass KI, die früher nur in Rechenzentren lief, jetzt auf deinem Smartphone für „Low-Rank-Adaptation (LoRA)“ Feinabstimmungen durchgeführt werden kann. Tether betont, dass diese Technik es ermöglicht, Modelle, die doppelt so groß sind wie herkömmliche Q4-quantisierte Modelle, auf Edge-Geräten zu verarbeiten – mit maximaler Speichereffizienz.
Das Tether-Entwicklungsteam teilte in der Ankündigung beeindruckende Testergebnisse, die die praktische Leistungsfähigkeit des Frameworks auf modernen Smartphones demonstrieren:
Tether-CEO Paolo Ardoino betonte stets: „Wenn du einen API-Schlüssel brauchst, um KI zu nutzen, gehört sie nicht wirklich dir.“ Das Kernprinzip von QVAC ist „Local-first“ (lokale Priorität).
Mit dem BitNet LoRA-Framework können Nutzer KI direkt auf lokalen E-Mails, Notizen und Nachrichten trainieren, ohne Daten in die Cloud hochzuladen. Das beseitigt nicht nur Bedenken hinsichtlich des Missbrauchs sensibler Daten durch Unternehmen, sondern bricht auch das Monopol weniger großer Player bei KI-Entwicklung. Derzeit ist QVAC Fabric LLM als Open-Source-Software (Apache 2.0 Lizenz) veröffentlicht, mit vorgefertigten Adaptern auf Hugging Face, sodass Entwickler weltweit sofort mit dieser Edge-Computing-Revolution starten können.