Gradient 發布 Echo-2 RL框架,提升AI科研效率超10倍

  • Echo-2框架能將大模型強化學習後訓練成本降低10倍,提升科研效率10.6倍。
  • 在DAPO-17k數據集測試中,訓練時間從124小時縮短至9.5小時,成本從4,490美元降至425美元。
  • 核心技術包括非同步強化學習、三層模組化架構、Lattica通訊協議和不穩定實例容錯調度。
  • 支援消費級顯卡聚合,小參數模型如Qwen3-0.6B在德州撲克中擊敗更大模型對手。
  • 商業化推出Logits RLaaS平台,基於Echo-2架構,加速AI研究迭代。
總結

分散式AI 實驗室Gradient 今日發表Echo-2 分散式強化學習架構( arxiv.org/pdf/2602.02192),旨在打破AI 研究訓練效率障礙。透過在架構層實現Learner 與Actor 的徹底解耦,Echo-2 將30B 模型的後訓練成本從4,500 美元驟降至425 美元。在同等預算下,帶來超過10倍的科學研究吞吐。

此框架利用存算分離技術進行非同步訓練(Async RL),將海量的取樣算力卸載至不穩定顯示卡實例與基於Parallax 的異質顯示卡。配合有界陳舊性、實例容錯調度、與自研Lattica 通訊協議等技術突破,在確保模型精度的同時大幅提升訓練效率。伴隨框架發布,Gradient 也即將推出RLaaS 平台Logits,推動AI 研究從「資本堆砌」轉移到「效率迭代」範式。 Logits現已開放給全球學生與研究人員預約(logits.dev)。

關於Gradient

Gradient 是一家致力於建構分散式基礎架構的AI實驗室,專注於前沿大模型的分散式訓練、服務與部署。 Gradient獲得了頂級投資機構支持,正在建立一個開放高效的未來智慧時代。

分享至:

作者:项目动态

本文為PANews入駐專欄作者的觀點,不代表PANews立場,不承擔法律責任。

文章及觀點也不構成投資意見

圖片來源:项目动态如有侵權,請聯絡作者刪除。

關注PANews官方賬號,一起穿越牛熊