Tether、BitNet LoRAフレームワークをプラットフォーム全体で展開

  • TetherのBitNet LoRAフレームワークは、スマートフォン、GPU、コンシューマーデバイス間でのAIモデルのトレーニングを可能にします。

  • このシステムはメモリ使用量を削減し、パフォーマンスを向上させ、VRAMの必要量を最大77.8%低減します。

  • ユーザーは最大13Bパラメータのモデルをモバイルデバイス上で微調整でき、エッジAIの能力を拡大します。

Tetherは、QVAC Fabricプラットフォームを通じて新しいAIフレームワークを発表し、コンシューマーデバイス上でのクロスプラットフォームのBitNet LoRAトレーニングを可能にしました。このアップデートにより、数十億パラメータのモデルがスマートフォンやGPU上で動作できるようになりました。CEOのパオロ・アルドイノは、この開発について、コスト削減とAIツールへのアクセス拡大を強調しました。

クロスプラットフォームAIトレーニングによるアクセス拡大

QVAC Fabricのアップデートは、BitNet LoRAの微調整におけるクロスプラットフォーム対応を導入します。これにより、異なるハードウェアやOS上でAIモデルを動作させることが可能になります。

特に、AMD、Intel、AppleのGPUやモバイルチップセットをサポートしています。また、VulkanとMetalのバックエンドを使用して互換性を確保しています。

Tetherによると、これはこれまでで初めて、BitNet LoRAがこれほど広範なデバイスで動作する例です。その結果、ユーザーは日常的なハードウェア上でモデルをトレーニングできるようになりました。

コンシューマーハードウェアでのパフォーマンス向上

このシステムは、BitNetとLoRAの技術を組み合わせることで、メモリと計算リソースの必要量を削減します。BitNetはモデルの重みを簡素化された値に圧縮し、LoRAはトレーニング可能なパラメータを制限します。

これらの方法により、ハードウェアの要求が大幅に低減されます。例えば、GPU推論はモバイルデバイス上でCPUの2倍から11倍の速度で動作します。

また、メモリ使用量もフル精度モデルと比べて大きく削減され、ベンチマークでは最大77.8%のVRAM削減を示しています。

Tetherは、スマートフォン上での微調整も実証しました。サムスンS25などのデバイス上で、125百万パラメータのモデルを数分でトレーニングできることを確認しました。

モバイルおよびエッジデバイスで大規模モデルを扱う

このフレームワークにより、エッジデバイス上でより大きなモデルを動作させることが可能になりました。Tetherは、iPhone 16上で最大13億パラメータのモデルの微調整に成功したと報告しています。

さらに、Adreno、Mali、Apple BionicなどのモバイルGPUもサポートしており、AI開発の範囲を拡大しています。

パオロ・アルドイノは、AI開発は高価なインフラに依存しがちだと述べ、このフレームワークがローカルデバイスへの能力移行を促進すると述べました。

Tetherはまた、このシステムにより中央集権的プラットフォームへの依存を減らし、ユーザーが自分のデバイス上で直接トレーニングやデータ処理を行えるようになると付け加えました。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし