Gradient が Echo-2 RL フレームワークをリリースし、AI 研究の効率が 10 倍以上向上しました。

  • Echo-2フレームワークは、大規模モデルの強化学習後訓練コストを10倍削減し、研究効率を10.6倍向上させます。
  • DAPO-17kデータセットでのベンチマークテストでは、訓練時間が124時間から9.5時間に短縮され、コストが4,490ドルから425ドルに低下しました。
  • 主要技術には、非同期強化学習、3層モジュラーアーキテクチャ、Lattica通信プロトコル、不安定インスタンスの耐障害性スケジューリングが含まれます。
  • コンシューマーGPUの統合をサポートし、Qwen3-0.6Bのような小規模モデルがテキサスホールデムで大規模モデルを打ち負かすことができます。
  • 商業化では、Echo-2に基づくLogits RLaaSプラットフォームを導入し、AI研究のイテレーションを加速します。
要約

分散AIラボであるGradientは本日、AI研究における学習効率の障壁を打ち破ることを目指した分散強化学習フレームワーク「Echo-2」(arxiv.org/pdf/2602.02192)をリリースしました。Echo-2は、学習者とアクターをアーキテクチャレベルで完全に分離することで、30Bモデルの学習後コストを4,500ドルから425ドルへと大幅に削減します。これは、同じ予算内で研究スループットを10倍以上に向上させることを意味します。

このフレームワークは、非同期学習(Async RL)のためのインメモリ計算分離技術を活用し、膨大なサンプリング計算能力をParallaxベースの不安定なGPUインスタンスや異種GPUにオフロードします。限界停滞、インスタンスフォールトトレラントスケジューリング、そして自社開発のLattica通信プロトコルにおけるブレークスルーと組み合わせることで、モデルの精度を維持しながら学習効率を大幅に向上させます。このフレームワークのリリースと並行して、GradientはRLaaSプラットフォームLogitsもまもなくリリースし、AI研究を「資本蓄積」パラダイムから「効率反復」パラダイムへと推進します。Logitsは現在、世界中の学生や研究者による予約受付中です(logits.dev)。

グラデーションについて

Gradientは、分散型インフラストラクチャの構築に特化したAIラボです。最先端の大規模モデルの分散型トレーニング、サービス、そしてデプロイメントに注力しています。一流の投資機関の支援を受け、Gradientはオープンで効率的なインテリジェンスの未来を築いています。

共有先:

著者:项目动态

本記事はPANews入駐コラムニストの見解であり、PANewsの立場を代表するものではなく、法的責任を負いません。

記事及び見解は投資助言を構成しません

画像出典:项目动态。権利侵害がある場合は著者へ削除をご連絡ください。

PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう