此前,PowerBeats曾報導過有關能源消耗、環境保護領域的新聞,關注哈佛大學的環境污染問題研究、美國參議院《2025年清潔雲法》
這些因資料、AI發展而產生的能源消耗和環境問題是一個持續受到關注的議題。這個議題也伴隨著區塊鏈產業一直在尋找「工作量證明(PoW)」以外的替代方案—— data-font-family="微軟雅黑">消耗能源且不產生實際價值。而同時,AI 卻在快速發展,特別是 2022 年之後,AI領域的微軟雅黑>>大模型、推理服務、分散式訓練等對算力、晶片的需求激增。
本文聚焦被看作全新領域的去中心化 AI 生態,分析能源消耗以及環境問題和AI生態發展如何共處,二者又如何相互影響並最終呈現什麼樣的局面?
去中心化AI生態的核心理念可以很簡單的歸結為一句話:讓全球數以千萬計的 GPU、NPU 和 TPU設備,不只是用來算哈希,而是用來訓練模型、運行推理、產生隱私保護所需的零知識證明。即把原本「浪費」的資源(運算、儲存、通訊、網路等),變成推動 AI 發展的力量。
目前,分散式訓練網路、推理網路和GPU算力市場初步形成了去中心化AI的三大支柱。
去中心化 AI 的三大支柱
分散式訓練網路
分散式訓練網路訓練一個大模型需要協調成百上千個節點,每個節點要處理梯度運算、參數同步、資料分發等工作,目的是打破資料中心對大模型訓練的壟斷,讓任何人都能貢獻算力並從中受益。
分散式推理網路
一旦模型訓練完成,傳統做法是把模型部署到集中式的雲端伺服器上,例如 AWS 或 Google Cloud。但去中心化AI需要一種新的方式:把推理任務分散到全球各地的節點中去執行,就像邊緣運算一樣,離用戶更近、響應更快、成本更低。 這種模式特別適合那些希望降低延遲、提升可訪問性的應用,例如聊天機器人、圖像識別、語音轉文字等。
GPU 算力市場
訓練也好,推理也罷,都需要一個東西:算力。而現實中,大量消費級設備(例如你我手上的筆記型電腦)、小型礦場甚至閒置的遊戲主機,都在「沉睡」。於是,GPU 算力交易平台應運而生。它們就像 Uber 一樣,把空閒資源調度起來,提供給需要的人。這些平台不僅為開發者提供了廉價、有彈性的算力來源,也為硬體擁有者開啟了新的收入管道。 分散式訓練和推理網路都依賴分散式GPU算力市場!
為什麼說去中心化AI是趨勢
去中心化AI意味著更有效率地利用全球算力資源、更強的去中心化能力以及具有隱私和安全的自然優勢,自然成為未來的趨勢。
我們不再需要專門建造礦場來跑無意義的哈希運算,而是可以將這些資源投入到真正有價值的 AI 任務中去。 就像你的筆記本晚上睡覺時自動加入一個訓練網絡,白天繼續正常使用,還能獲得一些代幣獎勵。
在更強的去中心化能力方面,並且由於像零知識證明(ZKP)技術等微軟雅德技術的被廣泛應用等。 data-font-family="微軟雅黑">的原始資料保護,對金融、醫療等場景特別重要。
就像我們之前提到的,去中心化AI和去中心化實體基礎設施網路(DePIN)也都面對同樣的難題:節點間的通訊問題節點間的通訊問題模型參數的同步問題、異構設備之間的兼容問題異構設備之間的兼容問題。
DePIN帶來的能源高效利用
DePIN(去中心化實體基礎設施網路)一方面是說透過資源共享——將閒置的資源聚合起來並按照有效的機制實現市場化運作,例如去中心化雲端運算即是聚合閒置算力資源透過區塊鏈、智慧合約等技術實現雲端運算資源的市場運算。這種共享的方式避免了資源的浪費,從而為能源的高效利用、環境保護起到一定作用。
去中心化的另一方面則是透過政策或激勵措施向清潔能源、再生能源節點傾斜,從而激勵更多來自再生能源的資源。例如採用核電能源建設的數據中心,由於其使用清潔能源,去中心化雲計算平台則可以在平台對其算力節點進行“綠色標記”,將更多的激勵措施向其傾斜,無形中鼓勵更多的算力提供方採用基於清潔能源建設的雲算力、算力需求方優先購買“綠色計算資源“。
去中心化AI生態發展建設在去中心化實體基礎設施網路上,這是目前我們所能看到的能源和AI生態發展相對平衡的前進趨勢。一方面,我們需要建造更多依賴清潔能源、再生能源建設的實體設施,另一方面,我們需要DePIN組織、優化資源使得更有效率的運作。
