Tether社は、クロスプラットフォーム対応のBitNet LoRAフレームワークをリリースし、一般消費者向けデバイス上で数十億個のパラメータを持つモデルの微調整を可能にした。

PANewsは3月21日、TetherがQVAC Fabric上でクロスプラットフォーム対応のBitNet LoRAファインチューニングフレームワークをリリースしたと報じた。このフレームワークにより、Microsoft BitNet(1ビットLLM)のトレーニングと推論の最適化が可能になる。このフレームワークは計算能力とメモリ要件を大幅に削減し、数十億パラメータのモデルをノートパソコン、一般消費者向けGPU、スマートフォンでトレーニングおよびファインチューニングできる。

このソリューションは、モバイルGPU(Adreno、Mali、Apple Bionicなど)上でBitNetモデルの微調整を可能にする初のソリューションです。テスト結果によると、1億2500万パラメータのモデルは約10分、10億パラメータのモデルは約1時間で微調整でき、モバイルデバイス上では130億パラメータのモデルまで拡張可能です。

さらに、このフレームワークはIntel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、NVIDIA以外のデバイスで初めて1ビットLLM LoRAの微調整を実現しました。パフォーマンス面では、BitNetモデルはモバイルGPU上でCPUよりも2~11倍高速な推論速度を実現し、従来の16ビットモデルと比較してメモリ使用量を最大約77.8%削減しています。

Tether社は、この技術には高性能なコンピューティング能力やクラウドインフラへの依存を打破し、AIトレーニングの分散化と地域化を促進し、連合学習などの新たな応用シナリオの基盤を提供する可能性を秘めていると述べた。

共有先:

著者:PA一线

この内容は市場情報の提供のみを目的としており、投資助言を構成しません。

PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう
PANews APP
ある大口投資家が2週間前に購入した720BTCを売却し、103万ドルの利益を得た。
PANews 速報