PANews 1月19日訊息,去中心化AI 算力網路Gonka 最近在社區AMA 中,對PoC 機制與模型運作方式的階段性調整進行說明。相關調整主要包括:PoC 與推理統一使用同一大模型運行、PoC 激活方式由延遲切換調整為近實時觸發,以及對算力權重計算方式進行優化,使其更貼近不同模型與硬體的實際計算成本。
共同創辦人David 表示,上述調整並非針對短期產出或個別參與者,而是隨著網路算力規模快速擴大,對共識與驗證結構進行的必要演進,旨在提升網路在高負載狀態下的穩定性與安全性,為後續承載更大規模AI 工作負載奠定基礎。
針對社區討論中提到的小模型在當前階段token 產出較高的問題,團隊指出,不同規模模型在相同token 數下對應的真實算力消耗存在顯著差異。隨著網路向更高算力密度與更複雜任務演進,Gonka 正逐步引導算力權重與實際運算成本對齊,以避免算力結構長期失衡,影響網路整體擴展能力。
在最新PoC 機制下,網路已將PoC 啟動時間壓縮至5 秒以內,減少模型切換與等待帶來的算力浪費,使GPU 資源能夠更高比例地用於有效AI 計算。同時,透過統一模型運行,降低節點在共識與推理之間切換的系統開銷,提升整體算力利用效率。團隊同時強調,單卡及中小規模GPU 可透過礦池協作、依Epoch 靈活參與、推理任務等方式持續獲得效益並參與治理。
