分散式AI 實驗室Gradient 今日發表Echo-2 分散式強化學習架構( arxiv.org/pdf/2602.02192),旨在打破AI 研究訓練效率障礙。透過在架構層實現Learner 與Actor 的徹底解耦,Echo-2 將30B 模型的後訓練成本從4,500 美元驟降至425 美元。在同等預算下,帶來超過10倍的科學研究吞吐。
此框架利用存算分離技術進行非同步訓練(Async RL),將海量的取樣算力卸載至不穩定顯示卡實例與基於Parallax 的異質顯示卡。配合有界陳舊性、實例容錯調度、與自研Lattica 通訊協議等技術突破,在確保模型精度的同時大幅提升訓練效率。伴隨框架發布,Gradient 也即將推出RLaaS 平台Logits,推動AI 研究從「資本堆砌」轉移到「效率迭代」範式。 Logits現已開放給全球學生與研究人員預約(logits.dev)。
關於Gradient
Gradient 是一家致力於建構分散式基礎架構的AI實驗室,專注於前沿大模型的分散式訓練、服務與部署。 Gradient獲得了頂級投資機構支持,正在建立一個開放高效的未來智慧時代。

