撰文:Alex Xu

引言

在我的上一篇文章中,提到本輪加密牛市週期與前兩輪週期相比,缺乏足夠有影響力的新商業和新資產敘事。 AI 是本輪Web3 領域少有的新敘事之一,本文筆者將結合今年的熱點AI 計畫IO.NET,試著整理以下2 個問題的思考:

  • AI+Web3 在商業上的必要性
  • 分散式算力服務的必要性與挑戰

其次,筆者將梳理AI 分佈式算力的代表項目:IO.NET 項目的關鍵訊息,包括產品邏輯、競品情況和項目背景,並就項目的估值進行推演。

本文關於AI 和Web3 結合一節的部分思考,受到了Delphi Digital 研究員Michael rinko 所寫的《The Real Merge》的啟發。本文的部分觀點存在著這篇文章的消化和引述,推薦讀者閱讀原文。

本文為筆者截至發表時的階段性思考,未來可能發生改變,且觀點具有極強的主觀性,亦可能存在事實、數據、推理邏輯的錯誤,請勿作為投資參考,歡迎同業的批評與探討。

以下為正文部分。

1.商業邏輯:AI 和Web3 的結合點

1.1 2023:AI 造就的新「奇蹟年」

回看人類發展史,一旦科技實現了突破性進展,從個體日常生活,到各個產業格局,再到整個人類文明,都會跟著發生天翻地覆的變化。

人類歷史中有兩個重要年份,分別是1666 年和1905 年,如今它們被稱為科技史上的兩大「奇蹟年」。

1666 年作為奇蹟年,是因為牛頓的科學成果在該年集中式地湧現。這一年,他開闢了光學這個物理分支,創立了微積分這個數學分支,導出了引力公式這個現代自然科學的基礎定律。這當中無論哪一項都是未來百年人類科學發展的奠基式貢獻,大大加速了整體科學的發展。

第二個奇蹟年是1905 年,彼時僅26 歲的愛因斯坦在《物理學年鑑》上連續發表4 篇論文,分別涉及光電效應(為量子力學奠基)、布朗運動(成為分析隨機過程的重要引用)、狹義相對論和質能方程式(也就是那個知名公式E=MC^2)。在後世評價中,這四篇論文每一篇都超過諾貝爾物理學獎的平均水平(愛因斯坦本人也因為光電效應論文獲得了諾貝爾獎),人類文明的歷史進程再一次被大大推進了好幾步。

而剛過去的2023 年,大機率也會因為ChatGPT,而被稱之為另一個「奇蹟年」。

我們把2023 年看做人類科技史上的有一個「奇蹟年」,不僅是因為GPT 在自然語言理解和生成上的巨大進步,更是因為人類從GPT 的進化中摸清了大語言模型能力增長的規律-也就是透過擴大模型參數和訓練數據,就能指數級提升模型的能力-且這一進程短期還看不到瓶頸(只要算力夠用的話)。

此能力遠不至於理解語言和生成對話,還能被廣泛地交叉用於各類科技領域,以大語言模型在生物領域的應用為例:

  • 2018 年,諾貝爾化學獎得主弗朗西斯·阿諾德在頒獎儀式上才說道:「今天我們在實際應用中可以閱讀、寫入和編輯任何DNA 序列,但我們還無法透過它創作(compose it)。」僅僅在他演講的5 年後,2023 年,來自史丹佛大學和矽谷的AI 創業企業Salesforce Research 的研究者,在《自然- 生物技術》發表論文,他們透過基於GPT3 微調而成的大語言模型,從0創造出了全新的100 萬種蛋白質,並從中尋找到2 種結構截然不同、卻都具有殺菌能力的蛋白質,有希望成為抗生素以外的細菌對抗方案。也就是說:在AI 的幫助下,蛋白質「創造」的瓶頸突破了。
  • 而在此前,人工智慧AlphaFold 演算法在18 個月內,把地球上幾乎所有的2.14 億種蛋白質結構都做了預測,這項成果是過往所有人類結構生物學家工作成果的幾百倍。

有了基於AI 的各類模型,從生物科技、材料科學、藥物研發等硬科技,再到法律、藝術等人文領域,必將迎來翻天覆地的變革,而2023 正是這一切的元年。

我們都知道,近百年來人類在財富上的創造能力是指數級增長的,而AI 技術的快速成熟,必然會進一步加速這一進程。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

全球GDP 總量走勢圖,資料來源:世界銀行

1.2 AI 與Crypto 的結合

要從本質上理解AI 與Crypto 結合的必要性,可以從兩者互補的特性開始。

AI 和Crypto 特性的互補

AI 有三個屬性:

  • 隨機性:AI 具有隨機性,其內容生產的機制背後是一個難以復現、探查的黑盒,因此結果也具有隨機性
  • 資源密集:AI 是資源密集產業,需要大量的能源、晶片、算力
  • 類人智能:AI(很快將)能夠通過圖靈測試,此後,人機難辨*

※2023 年10 月30 日,美國加州大學聖迭戈分校的研究小組發布了關於GPT-3.5 和GPT-4.0 的圖靈測試結果(測試報告)。 GPT4.0 成績為41%,距離及格線50% 僅差9%,同項目人類測驗成績為63%。本圖靈測驗的意思是百分之多少的人認為和他聊天的那個對像是真人。如果超過50%,就表示人群中至少有一半以上的人認為那個交談對像是人,而不是機器,即視作通過圖靈測試。

AI 在為人類創造新的跨越式的生產力的同時,它的這三個屬性也為人類社會帶來的巨大的挑戰,即:

  • 如何驗證、控制AI 的隨機性,讓隨機性成為優勢而非缺陷
  • 如何滿足AI 所需的巨大能源和算力缺口
  • 如何分辨人和機器

而Crypto 和區塊鏈經濟的特性,或許正好是解決AI 帶來的挑戰的良藥,加密經濟有以下3 個特徵:

  • 確定性:業務基於區塊鏈、程式碼和智慧合約運行,規則和邊界清晰,什麼輸入就有什麼結果,高度確定性
  • 資源配置高效:加密經濟建構了一個龐大的全球自由市場,資源的定價、募集、流動非常快速,而且由於代幣的存在,可以透過激勵加速市場供需的匹配,加速到達臨界點
  • 免信任:帳本公開,程式碼開源,人人可便捷驗證,帶來「去信任(trustless)」的系統,而ZK 技術則避免驗證同時的隱私暴露

接下來透過3 個例子來說明AI 和加密經濟的互補性。

範例A:解決隨機性,基於加密經濟的AI 代理

AI 代理(AI Agent)即負責基於人類意志,替人​​類執行工作的人工智慧程式(代表性專案有Fetch.AI)。假設我們要讓自己的AI 代理處理一筆金融交易,例如「買入1000 美元的BTC」。 AI 代理可能面臨兩種情況:

情況一,它要對接傳統金融機構(如貝萊德),購入BTC ETF,這裡面臨大量的AI 代理和中心化機構的適配問題,例如KYC、資料審查、登入、身分驗證等等,目前來說還是非常麻煩。

情況二,它基於原生加密經濟運行,情況會變得簡單得多,它會透過Uniswap 或是某個聚合交易平台,直接用你的帳戶簽署、下單完成交易,收到WBTC(或其他封裝格式的BTC),整個過程快速簡單。實際上,這就是各類Trading BOT 在做的事情,它們實際上已經扮演了一個初級的AI 代理的角色,只不過工作專注於交易而已。未來各類交易BOT 隨著AI 的融入與演化,必然能執行更多複雜的交易意圖。例如:追蹤100 個鏈上的聰明錢地址,分析它們的交易策略和成功率,用我地址裡的10% 資金在一周內執行類似交易,並在發現效果不佳時停止,並總結失敗的可能原因。

AI 在區塊鏈的系統中運作會更加良好,本質上是因為加密經濟規則的清晰性,以及系統存取的無許可。在限定的規則下執行任務,AI 的隨機性帶來的潛在風險也將更小。例如AI 在棋牌比賽、電子遊戲的表現已經碾壓人類,就是因為棋牌和遊戲就是一個規則清晰的封閉沙盒。而AI 在自動駕駛上的進展會相對緩慢,因為開放的外部環境的挑戰更大,我們也更難容忍AI 處理問題的隨機性。

例B:塑造資源,透過代幣激勵聚集資源

BTC 背後的全球的算力網絡,其目前的總算力(Hashrate: 576.70 EH/s)超過了任何一個國家的超級電腦的綜合算力。其發展動力來自於簡單、公平的網路激勵。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

 BTC 網路算力走勢,資料來源:https://www.coinwarz.com/

除此之外,包括Mobile 在內的DePIN 專案們,也正在嘗試透過代幣激勵塑造供需兩端的雙邊市場,實現網路效應。本文接下來將聚焦在梳理的IO.NET,則是為了匯聚AI 算力設計的平台,希望透過代幣模型,激發出更多的AI 算力潛力。

範例C:開源程式碼,引入ZK,保護隱私的情況下分辨人機

作為OpenAI 創始人Sam Altman 參與的Web3 項目,Worldcoin 透過硬體設備Orb,基於人類的虹膜生物特徵,透過ZK 技術產生專屬且匿名的哈希值,用於驗證身份,區別人和機器。今年3 月初,Web3 藝術計畫Drip 就開始使用Worldcoin 的ID,來驗證真人用戶和發放獎勵。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

此外,Worldcoin 也在近日開源了其虹膜硬體Orb 的程式碼,就使用者生物特徵的安全和隱私提供保證。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

整體來說,加密經濟由於代碼和密碼學的確定性、無許可和代幣機制帶來的資源流轉和募集優勢,和基於開源代碼、公開賬本的去信任屬性,已經成為人類社會面臨AI 挑戰的一個重要的潛在解決方案。

而且其中最迫在眉睫,商業需求最旺盛的挑戰,就是AI 產品在算力資源上的極度飢渴,圍繞著晶片和算力的巨大需求。

這也是本輪多頭週期,分散式算力專案的漲勢冠絕整體AI 賽道的主因。

分散式計算(Decentralized Compute)的商業必要性

AI 需要大量的運算資源,無論是用於訓練模型或進行推理。

而在大語言模型的訓練實踐中,有一個事實已經被確認:只要資料參數的規模夠大,大語言模型就會湧現一些之前沒有的能力。每一代GPT 的能力相比上一代的指數型躍遷,背後就是模型訓練的計算量的指數級增長。

DeepMind 和史丹佛大學的研究顯示,不同的大語言模型,在面對不同的任務(運算、波斯語問答、自然語言理解等)時,只要把模型訓練時的模型參數規模加大(對應地,訓練的計算量也加大了),在訓練量達不到10^22 FLOPs(FLOPs 指每秒浮點運算量,用於衡量計算性能)之前,任何任務的表現都和隨機給出答案是差不多的;而一旦參數規模超越那個規模的臨界值後,任務表現就急劇提升,不論哪個語言模型都是這樣。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

來源:Emergent Abilities of Large Language Models 

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

來源:Emergent Abilities of Large Language Models

也正是在算力上「大力出奇蹟」的規律和實踐的驗證,讓OpenAI 的創始人Sam Altman 提出了要募集7 萬億美金,構建一個超過目前台積電10 倍規模的先進芯片廠(該部分預計花費1.5 兆),並用剩餘資金用於晶片的生產和模型訓練。

除了AI 模型的訓練需要算力之外,模型的推理過程本身也需要很大的算力(儘管相比訓練的計算量要小),因此對晶片和算力的飢渴成為了AI 賽道參與者的常態。

相對於中心化的AI 算力提供者如Amazon Web Services、Google Cloud Platform、微軟的Azure 等,分散式AI 運算的主要價值主張包括:

  • 可訪問性:使用AWS、GCP 或Azure 等雲端服務取得算力晶片的存取權限通常需要幾週時間,而且流行的GPU 型號經常無貨。此外為了拿到算力,消費者往往需要跟這些大公司簽訂長期、缺乏彈性的合約。而分散式算力平台可以提供彈性的硬體選擇,有更強的可訪問性。
  • 定價低:由於利用的是閒置晶片,再疊加網路協議方對晶片和算力供給方的代幣補貼,分散式算力網路可能可以提供更低廉的算力。
  • 抗審查:目前尖端算力晶片和供應被大型科技公司所壟斷,加上以美國為代表的政府正在加大對AI 算力服務的審查,AI 算力能夠被分散式、彈性、自由地獲取,逐漸成為顯性需求,這也是基於web3 的算力服務平台的核心價值主張。

如果說化石能源是工業時代的血液,那麼算力或將是由AI 開啟的新數位時代的血液,算力的供應將成為AI 時代的基礎設施。正如穩定幣成為法幣在Web3 時代的一個茁壯生長的旁支,分散式的算力市場是否會成為快速成長的AI 算力市場的一個旁支?

由於這還是一個相當早期的市場,一切都還有待觀察。但以下幾個因素可能會對分散式算力的敘事或是市場採用起到刺激作用:

  • GPU 持續的供需緊張。 GPU 的持續供應緊張,或許會推動一些開發者轉向嘗試分散式的算力平台。
  • 監管擴張。想從大型的雲端算力平台取得AI 算力服務,必須經過KYC 以及層層審查。這反而可能促成分散式算力平台的採用,尤其是一些受到限制和製裁的地區。
  • 代幣價格的刺激。牛市週期代幣價格的上漲,將提高平台對GPU 供給端的補貼價值,進而吸引更多供給方進入市場,提高市場的規模,降低消費者的實際購買價格。

但同時,分散式算力平台的挑戰也相當明顯:

技術和工程難題

  • 工作驗證問題:深度學習模型的計算,由於層級化的結構,每層的輸出都作為後一層的輸入,因此驗證計算的有效性需要執行先前的所有工作,無法簡單有效地進行驗證。為了解決這個問題,分散式運算平台需要開發新的演算法或使用近似驗證技術,這些技術可以提供結果正確性的機率保證,而不是絕對的確定性。
  • 並行化難題:分散式算力平台匯聚的是長尾的晶片供給,也就注定了單一設備所能提供的算力比較有限,單一晶片供給方幾乎短時間獨立完成AI 模型的訓練或推理任務,所以必須透過並行化的手段來拆解和分配任務,縮短總的完成時間。而平行化又必然面臨任務如何分解(尤其是複雜的深度學習任務)、資​​料依賴性、設備之間額外的通訊成本等一系列問題。
  • 隱私保護問題:如何保證採購方的資料以及模型不暴露給任務的接收方?

監理合規難題

  • 分散式運算平台由於其供給和採購雙邊市場的無許可性,一方面可以作為賣點吸引到部分客戶。另一方面則可能隨著AI 監管規範的完善,成為政府整頓的對象。此外,部分GPU 的供應商也會擔心自己出租的算力資源,是否提供給了受制裁的商業或個人。

總的來說,分散式運算平台的消費者大多是專業的開發者,或是中小型的機構,與購買加密貨幣和NFT 的加密投資者們不同,這類用戶對於協議所能提供的服務的穩定性、持續性有更高的要求,價格未必是他們決策的主要動機。目前來看,分散式運算平台們要獲得這類使用者的認可,仍有較長的路要走。

接下來,我們就一個本輪週期的新分散式算力項目IO.NET 進行項目資訊的梳理和分析,並基於目前市場上同賽道的AI 項目和分散式計算項目,計算其上市後可能的估值水準。

2.分散式AI 算力平台:IO.NET

2.1 項目定位

IO.NET 是一個去中心化運算網絡,其建構了一個圍繞晶片的雙邊市場,供給端是分佈在全球的晶片(GPU 為主,也有CPU 以及蘋果的iGPU 等)算力,需求端是希望完成AI 模型訓練或推理任務的人工智慧工程師。

在IO.NET 的官網上,它這樣寫道:

Our Mission

Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.

其使命是把百萬數量級的GPU 整合到它的DePIN 網路中。

與現有的雲端AI 算力服務商相比,其對外強調的主要賣點在於:

  • 彈性組合:AI 工程師可以自由挑選、組合自己所需的晶片來組成「叢集」,來完成自己的運算任務
  • 部署迅速:無需數週的審核與等待(目前AWS 等中心化廠商的情況),在幾十秒內就可以完成部署,開始任務
  • 服務低價:服務的成本比主流廠商低90%

此外,IO.NET 未來也計劃上線AI 模型商店等服務。

2.2 產品機制與業務數據

產品機制與部署體驗

與亞馬遜雲端、Google雲端、阿里雲一樣,IO.NET 提供的運算服務叫做IO Cloud。 IO Cloud 是一個分散式的、去中心化的晶片網絡,能夠執行基於Python 的機器學習程式碼,運行AI 和機器學習程式。

IO Cloud 的基本業務模組叫做叢集(Clusters),Clusters 是一個可以自我協調完成運算任務的GPU 群組,人工智慧工程師可以根據自己的需求來自訂想要的叢集。

IO.NET 的產品介面的使用者友好度很高,如果你要部署屬於自己的晶片集群,來完成AI 運算任務,在進入它的Clusters(集群)產品頁面後,就可以開始按需配置你要的晶片集群。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

頁面資訊:https://cloud.io.net/cloud/clusters/create-cluster,下同

首先你需要選擇自己的任務場景,目前有三種類型可供選擇:

  1. General(通用型):提供了一個比較通用的環境,適合早期不確定特定資源需求的專案階段。
  2. Train(訓練型):專為機器學習模型的訓練和微調而設計的叢集。這個選項可以提供更多的GPU 資源、更高的記憶體容量和/ 或更快的網路連接,以便於處理這些高強度的運算任務。
  3. Inference(推理型):專為低延遲推理和重負載工作設計的叢集。在機器學習的脈絡中,推理指的是使用訓練好的模型來進行預測或分析新數據,並提供回饋。因此,這個選項會專注於優化延遲和吞吐量,以便於支援即時或近實時的資料處理需求。

然後,你需要選擇晶片集群的供應方,目前IO.NET 與Render Network 以及Filecoin 的礦工網路達成了合作,因此用戶可以選擇IO.NET 或另外兩個網路的晶片來作為自己計算集群的供應方,相當於IO.NET 扮演了一個聚合器的角色(但截至筆者撰文時,Filecon 服務暫時下線)。值得一提的是,根據頁面顯示,目前IO.NET 在線上可用GPU 數量為20 萬+,而Render Network 的可用GPU 數量為3700+。

再接下來就進入了叢集的晶片硬體選擇環節,目前IO.NET 列出可供選擇的硬體類型僅有GPU,不包括CPU 或是蘋果的iGPU(M1、M2 等),而GPU 也主要以英偉達的產品為主。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

在官方列出、且可用的GPU 硬體選項中,根據筆者測試的當日數據,IO.NET 網路總在線的可用數量的GPU 數量為206001 張。其中可用量最多的是GeForce RTX 4090(45250 張),其次是GeForce RTX 3090 Ti(30779 張)。

此外,在處理AI 運算任務如機器學習、深度學習、科學運算上更有效率的A100-SXM4-80GB 晶片(市價15000$+),線上數有7965 張。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

而英偉達則從硬體設計開始就專為AI 而生的H100 80GB HBM3 顯示卡(市價40000$+),其訓練性能是A100 的3.3 倍,推理性能是A100 的4.5 倍,實際在線數量為86 張。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

在選定叢集的硬體類型後,使用者還需要選擇叢集的地區、通訊速度、租用的GPU 數量和時間等參數。

最後,IO.NET 根據綜合的選擇,會提供你一張帳單,以筆者的群集配置為例:

  • 通用(General)任務場景
  • 16 張A100-SXM4-80GB 晶片
  • 最高連線速度(Ultra High Speed)
  • 地理位置美國
  • 租用時間為1 週

該總帳單價格為3311.6$,單張卡的時租單價為1.232$

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

而A100-SXM4-80GB 在亞馬遜雲端、Google雲端和微軟Azure 的單卡時租價格分別為5.12$、5.07$ 和3.67$(資料來源:https://cloud-gpus.com/,實際價格會根據合約細節條款產生變化)。

因此僅就價格來說,IO.NET 的晶片算力確實比主流廠商便宜不少,且供給的組合與採購也非常有彈性,操作也很容易上手。

業務狀況

供給端情況

截至今年4 月4 日,根據官方數據,IO.NET 在供應端的GPU 總供給為371027 張,CPU 供給為42,321 張。此外,Render Network 作為其合作夥伴,還有9997 張GPU 和776 張CPU 接入了網路的供給。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

資料來源:https://cloud.io.net/explorer/home,下同

筆者撰文時,IO.NET 接入的GPU 總量中的214387 處於線上狀態,線上率達到了57.8%。來自Render Network 的GPU 的線上比率則為45.1%。

以上供應端的數據意味著什麼?

為了進行對比,我們再引入另一個上線時間更久的老牌分散式運算專案Akash Network 來進行對比。

Akash Network 早在2020 年就上線了主網,最初主要專注於CPU 和儲存的分散式服務。 2023 年6 月,推出了GPU 服務的測試網,並於同年9 月上線了GPU 分散式運算力的主網。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

資料來源:https://stats.akash.network/provider-graph/graphics-gpu

根據Akash 官方數據,其GPU 網路推出以來,供應端儘管持續成長,但截至目前為止GPU 總接取數量僅為365 張。

從GPU 的供應量來看,IO.NET 要比Akash Network 高出了好幾個數量級,已經是分散式GPU 算力賽道最大的供應網絡。

需求端情況

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

不過從需求端來看,IO.NET 依舊處於市場培育的早期階段,目前實際使用IO.NET 來執行計算任務的總量不多。大部分線上的GPU 的任務負載量為0%,只有A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3 四款晶片有在處理任務。且除了A100 PCIe 80GB K8S 之外,其他三款晶片的負載量均不到20%。

而官方當日揭露的網路壓力值為0%,代表大部分晶片供應都處於線上待機狀態。

而在網路費用規模上,IO.NET 已經產生了586029$ 的服務費用,近一日的費用為3200$。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

資料來源:https://cloud.io.net/explorer/clusters

以上網路結算費用的規模,無論是總量或每日交易量,均與Akash 處在同一個數量級,不過Akash 的大部分網路收入來自於CPU 的部分,Akash 的CPU 供應量有2 萬多張。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

資料來源:https://stats.akash.network/

此外,IO.NET 也揭露了網路處理的AI 推理任務的業務數據,截至目前已處理和驗證的推理任務數量超過23 萬個, 不過這部分業務量大部分都產生於IO.NET 所贊助的項目BC8.AI。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

資料來源:https://cloud.io.net/explorer/inferences

從目前的業務數據來看,IO.NET 的供給端擴張順利,在空投預期和代號「Ignition」的社群活動刺激下,讓其迅速地匯聚起了大量的AI 晶片算力。而其在需求端的拓展仍處於早期階段,有機需求目前仍不足。至於目前需求端的不足,是由於消費端的拓展還未開始,還是由於目前的服務體驗尚不穩定,因此缺乏大規模的採用,這點仍需要評估。

不過考慮到AI 算力的落差短期內較難填補,有大量的AI 工程師和專案在尋求替代方案,可能會對去中心化的服務商產生興趣,加上IO.NET 目前尚未開展對需求端的經濟和活動刺激,以及產品體驗的逐漸提升,後續供需兩端的逐漸匹配仍然是值得期待的。

2.3 團隊背景與融資狀況

團隊狀況

IO.NET 的核心團隊成立之初的業務是量化交易,在2022 年6 月之前,他們一直專注於為股票和加密資產開發機構級的量化交易系統。出於系統後端對運算能力的需求,團隊開始探索去中心化運算的可能性,並且最終把目光落在了降低GPU 算力服務的成本這個具體問題上。

創辦人&CEO:Ahmad Shadid

Ahmad Shadid 在IO.NET 之前一直從事量化和金融工程相關的工作,同時也是以太坊基金的志工。

CMO&首席策略長:Garrison Yang

Garrison Yang 在今年3 月才正式加入IO.NET,他之前是Avalanche 的策略和成長VP,畢業於加州大學聖塔芭芭拉分校。

COO:Tory Green

Tory Green 是io.net 營運官,先前是Hum Capital 營運長、Fox Mobile Group 企業發展與策略總監,畢業於史丹佛。

從IO.NET 的Linkedin 資訊來看,團隊總部位於美國紐約,在舊金山有分公司,目前團隊人員規模在50 人以上。

融資狀況

IO.NET 截至目前僅披露了一輪融資,今年3 月完成的A 輪估值10 億美金融資,共募集了3000 萬美金,由Hack VC 領投,其他參投方包括Multicoin Capital、Delphi Digital 、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures 和ArkStream Capital 等。

值得一說的是,或許是因為收到了Aptos 基金會的投資,原本在Solana 上進行結算記賬的BC8.AI 項目,已經轉換到了同樣的高性能L1 Aptos 上進行。

2.4 估值推算

根據先前創始人兼CEO Ahmad Shadid 的說法,IO.NET 將在4 月底推出代幣。

IO.NET 有兩個可以作為估值參考的標的項目:Render Network 和Akash Network,它們都是代表性的分散式計算項目。

我們可以用兩種方式推演IO.NET 的市值區間:1.市銷比,即:市值/ 收入比;2.市值/ 網路晶片數比。

先來看以市銷比為基礎的估值推演:

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

從市銷比的角度來看,Akash 可以作為IO.NET 的估值區間的下限,而Render 則作為估值的高位定價參考,其FDV 區間為16.7 億~59.3 億美金。

但考慮到IO.NET 專案更新,敘事更熱,加上早期流通市值較小,以及目前更大的供應端規模,其FDV 超過Render 的可能性並不小。

再看另一個對比估值的角度,即「市芯比」。

在AI 算力求大於供的市場背景下,分散式AI 算力網路最重要的要素是GPU 供應端的規模,因此我們可以以「市芯比」來橫向對比,用「專案總市值與網路內晶片的數量之比」,來推演IO.NET 可能的估值區間,供讀者作為一個市值參考。

AI、DePIN、Sol生態三重光環加身,深入了解發幣在即的io.net

若以市芯比來推算IO.NET 的市值區間,IO.NET 以Render Network 的市芯比為上限,以Akash Network 為下限,其FDV 區間為206 億~1975 億美金。

相信再看好IO.NET 專案讀者,都會認為這是一個極度樂觀的市值推算。

而且我們需要考慮到,目前IO.NET 如此龐大的晶片在線張數,有受到空投預期以及激勵活動的刺激,在項目正式上線後其供應端的實際在線數仍然需要觀察。

因此整體來說,從市銷比的角度進行的估值計算可能更有參考性。

IO.NET 作為一個疊加了AI+DePIN+Solana 生態三重光環的項目,其上線後的市值表現究竟如何,讓我們拭目以待。

參考資訊

Dephi Digital:The Real Merge

Galaxy:Understanding the Intersection of Crypto and AI