分散AIラボであるGradientは本日、AI研究における学習効率の障壁を打ち破ることを目指した分散強化学習フレームワーク「Echo-2」(arxiv.org/pdf/2602.02192)をリリースしました。Echo-2は、学習者とアクターをアーキテクチャレベルで完全に分離することで、30Bモデルの学習後コストを4,500ドルから425ドルへと大幅に削減します。これは、同じ予算内で研究スループットを10倍以上に向上させることを意味します。
このフレームワークは、非同期学習(Async RL)のためのインメモリ計算分離技術を活用し、膨大なサンプリング計算能力をParallaxベースの不安定なGPUインスタンスや異種GPUにオフロードします。限界停滞、インスタンスフォールトトレラントスケジューリング、そして自社開発のLattica通信プロトコルにおけるブレークスルーと組み合わせることで、モデルの精度を維持しながら学習効率を大幅に向上させます。このフレームワークのリリースと並行して、GradientはRLaaSプラットフォームLogitsもまもなくリリースし、AI研究を「資本蓄積」パラダイムから「効率反復」パラダイムへと推進します。Logitsは現在、世界中の学生や研究者による予約受付中です(logits.dev)。
グラデーションについて
Gradientは、分散型インフラストラクチャの構築に特化したAIラボです。最先端の大規模モデルの分散型トレーニング、サービス、そしてデプロイメントに注力しています。一流の投資機関の支援を受け、Gradientはオープンで効率的なインテリジェンスの未来を築いています。

