AI「下沉」之後,才是Web3大顯身手的時候?

最近AI產業出現「下沉」趨勢,從集中式大模型轉向本地小模型和邊緣運算,如Apple Intelligence、微軟Mu小模型及谷歌DeepMind機器人。這種轉變凸顯本地AI在隱私、可靠性和實用性的優勢,並為Web3 AI帶來新機會。區塊鏈技術能解決本地化模型面臨的數據驗證和協作問題,例如確保輸出結果未被篡改及保護隱私。新項目如Gradient HQ的Lattica協議和PublicAI的HeadCapAI已開始探索這些領域。當AI真正普及到每個裝置時,去中心化協作將成為剛需,Web3 AI應專注為本地化AI提供基礎設施支援。

總結

作者:Haotian

最近觀察AI 產業,發現個越來越「下沉」的變化:從原先拼算力集中和「大」模型的主流共識中,演變出了一條偏向本地小模型和邊緣運算的分支。

這一點,從Apple Intelligence 覆蓋5 億設備,到微軟推出Windows 11 專用3.3 億參數小模型Mu,再到谷歌DeepMind 的機器人「脫網」操作等等都能看出來。

會有啥不同呢?雲端AI 拼的是參數規模和訓練數據,燒錢能力是核心競爭力;本地AI 拼的是工程優化和場景適配,在保護隱私、可靠性和實用性上會更進一步。 (主要通用模​​型的幻覺問題會嚴重影響垂類場景滲透)

這其實對web3 AI 會有更大的機會,原來大家拼「通用化」(計算、數據、演算法)能力時自然被傳統Giant 大廠壟斷,套上去中心化的概念就想和谷歌、AWS、OpenAI 等競爭簡直癡人說夢,畢竟沒有資源優勢、技術優勢,也更沒有用戶基礎。

但到了在地化模型+ 邊緣運算的世界,區塊鏈技術服務面臨的情況可就大為不同了。

當AI 模型運行在使用者裝置上時,如何證明輸出結果沒有被竄改?如何在保護隱私的前提下實現模型協作?這些問題恰恰是區塊鏈技術的強項...

有註意到一些web3 AI 相關新項目,諸如最近由Pantera 零投10M 的@Gradient_HQ推出的數據通信協議Lattica,來解決中心化AI 平台的數據壟斷和黑箱問題;@PublicAI_腦電波設備HeadCapAI 的收入,構建“人工驗證層”,已經實現了14M 的收入;

一句話:只有當AI 真正「下沉」到每個裝置時,去中心化協作才會從概念變成剛需?

#Web3AI 計畫與其繼續在通用化賽道裡內卷,不如認真思考怎麼為在地化AI 浪潮提供基礎設施支援?

分享至:

作者:链上观

本文為PANews入駐專欄作者的觀點,不代表PANews立場,不承擔法律責任。

文章及觀點也不構成投資意見

圖片來源:链上观如有侵權,請聯絡作者刪除。

關注PANews官方賬號,一起穿越牛熊
推薦閱讀
剛剛
22分鐘前
1小時前
1小時前
2小時前
2小時前

熱門文章

行業要聞
市場熱點
精選讀物

精選專題

App内阅读