PANewsは3月21日、TetherがQVAC Fabric上でクロスプラットフォーム対応のBitNet LoRAファインチューニングフレームワークをリリースしたと報じた。このフレームワークにより、Microsoft BitNet(1ビットLLM)のトレーニングと推論の最適化が可能になる。このフレームワークは計算能力とメモリ要件を大幅に削減し、数十億パラメータのモデルをノートパソコン、一般消費者向けGPU、スマートフォンでトレーニングおよびファインチューニングできる。
このソリューションは、モバイルGPU(Adreno、Mali、Apple Bionicなど)上でBitNetモデルの微調整を可能にする初のソリューションです。テスト結果によると、1億2500万パラメータのモデルは約10分、10億パラメータのモデルは約1時間で微調整でき、モバイルデバイス上では130億パラメータのモデルまで拡張可能です。
さらに、このフレームワークはIntel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、NVIDIA以外のデバイスで初めて1ビットLLM LoRAの微調整を実現しました。パフォーマンス面では、BitNetモデルはモバイルGPU上でCPUよりも2~11倍高速な推論速度を実現し、従来の16ビットモデルと比較してメモリ使用量を最大約77.8%削減しています。
Tether社は、この技術には高性能なコンピューティング能力やクラウドインフラへの依存を打破し、AIトレーニングの分散化と地域化を促進し、連合学習などの新たな応用シナリオの基盤を提供する可能性を秘めていると述べた。

