PANewsは12月2日、Tether Dataが大規模言語モデル(LLM)推論のための包括的なランタイム環境とファインチューニングフレームワークであるQVAC Fabric LLMのリリースを発表したと報じました。このフレームワークは、コンシューマー向けGPU、ラップトップ、さらにはスマートフォンといった日常的なハードウェア上で、大規模言語モデルの実行、学習、カスタマイズを直接サポートします。これまでハイエンドのクラウドサーバーや専用のNVIDIAシステムを必要としていたタスクを、ユーザーの既存デバイス上でローカルに実行できるようになります。
QVAC Fabric LLMは、LLama3、Qwen3、Gemma3といった最新モデル向けの微調整サポートを追加することで、llama.cppエコシステムの機能を拡張します。AMD、Intel、NVIDIA、Appleチップ、モバイルチップなど、幅広いGPUでのトレーニングをサポートするQVAC Fabric LLMは、「有意義なAI開発には単一ベンダーの専用ハードウェアが必要だ」という長年の思い込みを打ち破ります。Tether Dataは、QVAC Fabric LLMをApache 2.0ライセンスに基づくオープンソースソフトウェアとしてリリースし、マルチプラットフォームバイナリとHugging Face上ですぐに使用できるアダプターを提供しています。開発者はわずか数個のコマンドで微調整を開始できるため、AIのカスタマイズのハードルが低くなります。
