外,還有一些其他的「聚合算力」的例子,比如以太坊上的 DeFi 生態系統,通過代幣激勵,將全球的資本、算力聚集在一起,實現了一個去中心化的金融平臺。這種聚合算力的模式,在 AI 領域也有很大的應用空間。
假設我們有一個 AI 模型,需要訓練一個龐大的數據集,但我們自己的資源有限,無法完成這項任務。這時,我們可以通過加密經濟的方式,將這個任務分解成多個小任務,分發給全球的用戶,並通過代幣激勵他們參與訓練。通過這種方式,我們可以聚集全球的算力,解決資源不足的問題,同時也可以保護用戶的數據隱私,通過加密技術確保數據的安全性。
例子 C:開源程式碼,引入 ZK,保護隱私的情況下分辨人機
AI 技術在語音識別、圖像識別等領域取得了巨大的突破,但同時也帶來了一些風險,比如隱私泄露的問題。在傳統的中心化模型中,用戶的數據往往需要上傳到中心服務器進行處理,這就存在著數據泄露的風險。
在加密經濟的模式下,我們可以通過開源程式碼和零知識證明技術(ZK)來解決這個問題。首先,我們可以將 AI 模型的程式碼開源,讓用戶可以驗證模型的正確性和安全性。其次,我們可以使用 ZK 技術來保護用戶的隱私,在不暴露用戶數據的情況下,進行計算和識別。
這種結合 AI 和加密經濟的方式,不僅可以保護用戶的隱私,還可以提高系統的效率和可信度,同時也可以促進開源和合作,推動 AI 技術的發展。
分散式計算(Decentralized Compute)的商業必要性
AI 技術的發展需要大量的算力和資源,但傳統的中心化計算模式存在著一些問題,比如單點故障、效率低下、資源浪費等。分散式計算(Decentralized Compute)的出現,可以解決這些問題,並為 AI 技術的發展提供更好的支持。
分散式計算基於區塊鏈和分佈式計算技術,將計算資源分散到全球的節點上,實現了去中心化的計算環境。這樣一來,不僅可以提高系統的可靠性和安全性,還可以充分利用全球的資源,提高計算的效率和速度。
分散式計算在 AI 領域有著廣泛的應用,比如訓練大型的深度學習模型、處理海量的數據等。通過分散式計算,我們可以將這些任務分解成多個小任務,分發給全球的節點進行計算,最後將結果進行聚合。這樣一來,不僅可以提高計算的效率,還可以保護用戶的數據隱私,同時也可以降低成本,促進 AI 技術的普及和應用。
分散式 AI 算力平臺:IO.NET
IO.NET 是一個分散式 AI 算力平臺,旨在為全球的 AI 開發者和用戶提供高效、安全的計算環境。它基於區塊鏈和分佈式計算技術,將計算資源分散到全球的節點上,實現了去中心化的計算環境。
IO.NET 的核心理念是「算力即服務」(Compute as a Service, CaaS),它提供了一個開放、自由的平臺,讓開發者和用戶可以自由地使用和交換計算資源。它支持多種不同的計算任務,包括訓練模型、處理數據、執行智能合約等。
IO.NET 的優勢在於其安全性和效率。它使用區塊鏈技術保護用戶的數據隱私,同時也保護計算資源的安全和可靠性。它還通過分散式計算技術提高了計算的效率和速度,讓開發者和用戶可以更快地完成計算任務。
此外,IO.NET 還提供了一個開放的生態系統,讓開發者和用戶可以自由地創建和交換計算模型和算法。它支持不同的開發工具和程式語言,讓開發者可以根據自己的需求進行開發和部署。
IO.NET 的團隊背景強大,並且已經獲得了一些重要的融資。這些都為其未來的發展奠定了堅實的基礎。
估值推算
IO.NET 是一個非常有潛力的項目,它結合了 AI 和分散式計算技術,解決了現有計算模式存在的問題,並為全球的開發者和用戶提供了高效、安全的計算環境。根據市場的需求和項目的潛力,我們可以推算其估值的範圍,並對其未來的發展做出一些預測。
然而,估值是一個很複雜的問題,需要考慮很多因素,比如市場的競爭狀況、項目的技術優勢和商業模式等。因此,我們無法給出具體的估值數字,只能根據項目的特點和潛力,給出一個大致的範圍。
總結
AI 和 Web3 的結合在商業上具有重要的必要性,它可以解決現有計算模式存在的問題,並為全球的開發者和用戶帶來更好的計算環境。分散式計算作為一種新興的計算模式,可以提高計算的效率和可靠性,同時也可以保護用戶的數據隱私。IO.NET 作為一個分散式 AI 算力平臺,在這個領域具有很大的潛力,它結合了區塊鏈和分佈式計算技術,為全球的開發者和用戶提供了高效、安全的計算環境。我們期待看到這個項目的未來發展,並為其成功而努力。外,包括Mobile在內的DePIN專案們,也正在努力通過代幣激勵塑造供需兩端的雙邊市場,實現網路效應。
接下來要重點介紹的是IO.NET,這是一個旨在匯聚AI算力的平台,希望通過代幣模型激發更多的AI算力潛力。
舉個例子,開源程式碼引入ZK技術,可以在保護隱私的情況下區分人和機器。
作為OpenAI創辦人Sam Altman參與的Web3專案,Worldcoin通過硬體裝置Orb基於人的虹膜生物特徵,通過ZK技術生成專屬且匿名的hash值,用於驗證身份,區別人和機器。今年3月初,Web3藝術專案Drip開始使用Worldcoin的ID來驗證真人使用者和發放獎勵。
此外,Worldcoin也最近開源了其虹膜硬體Orb的程式碼,以提供生物特徵的安全和隱私保證。
總體而言,加密經濟由於程式碼和密碼學的確定性、無許可和代幣機制帶來的資源流轉和募集優勢,以及基於開源程式碼、公開帳本的去信任屬性,已經成為人類社會面臨AI挑戰的一個重要的潛在解決方案。
其中最迫在眉睫、商業需求最旺盛的挑戰就是AI產品在算力資源上的極度飢渴,這也是本輪牛市週期分散式算力專案的漲勢冠絕整體AI賽道的主要原因。
AI需要大量的計算資源,無論是用於訓練模型還是進行推理。
在大語言模型的訓練實踐中,有一個事實已經得到確認:只要資料引數的規模足夠大,大語言模型就會湧現出一些之前沒有的能力。每一代GPT的能力相比上一代的指數型躍遷,背後就是模型訓練的計算量的指數級增長。
DeepMind和斯坦福大學的研究顯示,不同的大語言模型,在面對不同的任務時,只要把模型訓練時的模型引數規模加大,在訓練量達不到10^22 FLOPs之前,任何任務的表現都和隨機給出答案差不多;而一旦引數規模超越那個臨界值後,任務表現就急劇提升,不論哪個語言模型都是這樣。
也正是在算力上「大力出奇跡」的規律和實踐的驗證,讓OpenAI的創辦人Sam Altman提出了要募集7兆美元,構建一個超過目前台積電10倍規模的先進晶片廠(該部分預計花費1.5兆),並用剩餘資金用於晶片的生產和模型訓練。
除了AI模型的訓練需要算力之外,模型的推理過程本身也需要很大的算力(儘管相比訓練的計算量要小),因此對晶片和算力的飢渴成為了AI賽道參與者的常態。
相對於中心化的AI算力提供方如Amazon Web Services、Google Cloud Platform、微軟的Azure等,分散式AI計算的主要價值主張包括:
可訪問性:使用AWS、GCP或Azure等雲服務獲取算力晶片的訪問許可權通常需要幾周時間,而且流行的GPU型號經常無貨。此外為了拿到算力,消費者往往需要跟這些大公司簽訂長期、缺少彈性的合約。而分散式算力平臺可以提供彈性的硬體選擇,有更強的可訪問性。
定價低:由於利用的是閒置晶片,再疊加網路協議方對晶片和算力供給方的代幣補貼,分散式算力網路可能可以提供更為低廉的算力。
抗審查:目前尖端算力晶片和供應被大型科技公司所壟斷,加上以美國為代表的政府正在加大對AI算力服務的審查,AI算力能夠被分散式、彈性、自由地獲取,逐漸成為一個顯性需求,這也是基於web3的算力服務平臺的核心價值主張。
如果說化石能源是工業時代的血液,那算力或將是由AI開啟的新數位時代的血液,算力的供應將成為AI時代的基礎設施。正如穩定幣成為法幣在Web3時代的一個茁壯生長的旁支,分散式的算力市場是否會成為快速成長的AI算力市場的一個旁支?
由於這還是一個相當早期的市場,一切都還有待觀察。但是以下幾個因素可能會對分散式算力的敘事或是市場採用起到刺激作用:
GPU持續的供需緊張。GPU的持續供應緊張,或許會推動一些開發者轉向嘗試分散式的算力平臺。
監管擴張。想從大型的雲算力平臺獲取AI算力服務,必須經過KYC以及層層審查。這反而可能促成分散式算力平臺的採用,尤其是一些受到限制和制裁的地區。
代幣價格的刺激。牛市週期代幣價格的上漲,會提高平臺對GPU供給端的補貼價值,進而吸引更多供給方進入市場,提高市場的規模,降低消費者的實際購買價格。
但同時,分散式算力平臺的挑戰也相當明顯:
技術和工程難題
工作驗證問題:深度學習模型的計算,由於層級化的結構,每層的輸出都作為後一層的輸入,因此驗證計算的有效性需要執行之前的所有工作,無法簡單有效地進行驗證。為了解決這個問題,分散式計算平臺需要開發新的演算法或使用近似驗證技術,這些技術可以提供結果正確性的概率保證,而不是絕對的確定性。
平行化難題:分散式算力平臺匯聚的是長尾的晶片供給,也就註定了單個裝置所能提供的算力比較有限,單個晶片供給方幾乎短時間獨立完成AI模型的訓練或推理任務,所以必須通過並行化的手段來拆解和分配任務,縮短總的完成時間。而平行化又必然面臨任務如何分解(尤其是複雜的深度學習任務)、資料依賴性、裝置之間額外的通訊成本等一系列問題。
隱私保護問題:如何保證採購方的資料以及模型不暴露給任務的接收方?
監管合規難題
分散式計算平臺由於其供給和採購雙邊市場的無許可性,一方面可以作為賣點吸引到部分客戶。另一方面則可能隨著AI監管規範的完善,成為政府整頓的物件。此外,部分GPU的供應商也會擔心自己出租的算力資源是否被提供給了被制裁的商業或個人。
總的來說,分散式計算平臺的消費者大多是專業的開發者,或是中小型的機構,與購買加密貨幣和NFT的加密投資者們不同,這類使用者對於協議所能提供的服務的穩定性、持續性有更高的要求,價格未必是他們決策的主要動機。目前來看,分散式計算平臺們要獲得這類使用者的認可,仍然有較長的路要走。
接下來,我們要介紹一個本輪週期的新分散式算力專案IO.NET,並對其進行專案資訊的梳理和分析,並基於目前市場上同賽道的AI專案和分散式計算專案,測算其上市後可能的估值水平。
IO.NET是一個去中心化計算網路,其構建了一個圍繞晶片的雙邊市場,供給端是分佈在全球的晶片(以GPU為主,還有CPU以及蘋果的iGPU等)算力,需求端是希望完成AI模型訓練或推理任務的人工智慧工程師。
根據IO.NET的官網介紹,它的使命是把百萬數量級的GPU整合到它的DePIN網路中。
與現有的雲AI算力服務商相比,它主要強調以下幾點賣點:
彈性組合:AI工程師可以自由挑選、組合自己所需要的晶片來組成「叢集」,以完成自己的計算任務。
部署迅速:無需數週的審批和等待(目前AWS等中心化廠商的情況),在幾十秒內就可以完成部署,開始任務。
低價服務:服務的成本比主流廠商低90%。
此外,IO.NET還計劃上線AI模型商店等服務。
在IO.NET的產品介面上,使用者體驗非常友好。如果你要部署屬於自己的晶片叢集,來完成AI計算任務,在進入它的Clusters(叢集)產品頁面後,就可以開始按需配置你所需的晶片叢集。
首先,你需要選擇自己的任務場景,目前有三個選項可供選擇:通用型、訓練型和推理型。然後,你可以根據自己的需求自定義想要的叢集。
總的來說,IO.NET通過提供彈性組合、快速部署和低價服務等特點,吸引了AI工程師和機構的注意。然而,分散式計算平臺仍然面臨著技術難題、隱私保護問題和監管合規等挑戰。對於這樣的平臺來說,獲得專業開發者和中小型機構的認可仍然需要時間。歡迎來到IO.NET,這裡是一個提供高效能計算服務的平台。我們專注於優化延遲和吞吐量,以滿足即時或近即時的資料處理需求。現在你可以選擇晶片叢集的供應方。目前IO.NET與Render Network以及Filecoin的礦工網路達成了合作,因此使用者可以選擇IO.NET或其他兩個網路的晶片來作為自己計算叢集的供應方。IO.NET扮演了一個聚合器的角色(但Filecoin服務暫時下線中)。值得一提的是,根據頁面顯示,目前IO.NET線上可用的GPU數量為20萬+,而Render Network的可用GPU數量為3700+。
接下來,讓我們來看叢集的晶片硬體選擇。目前IO.NET只提供GPU硬體型別,不包括CPU或蘋果的iGPU(M1、M2等)。而且主要以NVIDIA的產品為主。在可用的GPU硬體選項中,根據我們測試的當日資料,IO.NET線上可用的GPU數量為206,001張。其中,可用量最多的是GeForce RTX 4090(45,250張),其次是GeForce RTX 3090 Ti(30,779張)。此外,在處理AI計算任務上更為高效的A100-SXM4-80GB晶片(市場價15,000美元+)線上數有7,965張。而NVIDIA從硬體設計開始就專為AI而生的H100 80GB HBM3顯示卡(市場價40,000美元+),其訓練效能是A100的3.3倍,推理效能是A100的4.5倍,實際線上數量為86張。
在選定叢集的硬體型別後,你還需要選擇叢集的地區、通訊速度、租用的GPU數量和時間等參數。最後,IO.NET根據你的選擇,將為你提供一個帳單。以筆者的叢集配置為例:通用任務場景、16張A100-SXM4-80GB晶片、最高連線速度、地理位置美國、租用時間為1周,該總帳單價格為3,311.6美元,單張卡的時租單價為1.232美元。
相比之下,A100-SXM4-80GB在亞馬遜雲、Google雲和微軟Azure的單卡時租價格分別為5.12美元、5.07美元和3.67美元(資料來源:https://cloud-gpus.com/,實際價格會根據合約細節條款產生變化)。因此僅就價格來說,IO.NET的晶片算力確實比主流廠商便宜不少,且供給的組合與採購也非常有彈性,操作也很容易上手。
讓我們來看一下業務情況。截至今年4月4日,根據官方資料,IO.NET在供應端的GPU總供應為371,027張,CPU供應為42,321張。此外,Render Network作為其合作伙伴,還有9,997張GPU和776張CPU接入了網路的供應。
根據我們的資料,IO.NET接入的GPU總量中的214,387張處於線上狀態,線上率達到了57.8%。來自Render Network的GPU的線上率則為45.1%。
從供應端的資料來看,IO.NET比Akash Network高出了好幾個數量級,已經是分散式GPU算力賽道最大的供應網路。
接下來,讓我們來看需求端的情況。從需求端來看,IO.NET目前實際使用IO.NET來執行計算任務的總量不多。大部分線上的GPU的任務負載量為0%,只有A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3四款晶片有在處理任務。且除了A100 PCIe 80GB K8S之外,其他三款晶片的負載量均不到20%。而官方當日披露的網路壓力值為0%,意味著大部分晶片供應都處於線上待機狀態。在網路費用規模上,IO.NET已經產生了586,029美元的服務費用,近一日的費用為3,200美元。
以上網路結算費用的規模,無論是總量還是日交易量,均與Akash處在同一個數量級,不過Akash的大部分網路收入來自於CPU的部分,Akash的CPU供應量有2萬多張。
此外,IO.NET還披露了網路處理的AI推理任務的業務資料。截至目前,其已經處理和驗證的推理任務數量超過23萬個,不過這部分業務量大部分都產生於IO.NET所贊助的專案BC8.AI。
從目前的業務資料來看,IO.NET的供給端擴張順利,但需求端的拓展仍處於早期階段,有機需求目前還不足。至於目前需求端的不足,是由於消費端的拓展還未開始,還是由於目前的服務體驗尚不穩定,因此缺少大規模的採用,這點仍需要評估。
不過考慮到AI算力的落差短期內較難填補,有大量的AI工程師和專案在尋求替代方案,可能會對去中心化的服務商產生興趣,加上IO.NET目前尚未開展對需求端的經濟和活動刺激,以及產品體驗的逐漸提升,後續供需兩端的逐漸匹配仍然是值得期待的。
讓我們來看一下團隊背景和融資情況。IO.NET的核心團隊成立之初的業務是量化交易,他們一直專注於為股票和加密資產開發機構級的量化交易系統。出於系統後端對計算能力的需求,團隊開始探索去中心化計算的可能性,並且最終把目光落在了降低GPU算力服務的成本這個具體問題上。
創辦人兼CEO Ahmad Shadid在IO.NET之前一直從事量化和金融工程相關的工作,同時還是以太坊基金的志願者。CMO兼首席戰略官Garrison Yang在今年3月才正式加入IO.NET,他此前是Avalanche的戰略和增長VP,畢業於加州大學聖巴巴拉分校。COO Tory Green是IO.NET的營運長,此前是Hum Capital的營運長、Fox Mobile Group的企業發展與戰略總監,畢業於斯坦福。從IO.NET的Linkedin資訊來看,團隊總部位於美國紐約,在舊金山有分公司,目前團隊人員規模在50人以上。
融資方面,IO.NET截至目前僅披露了一輪融資,即今年3月完成的A輪估值10億美元融資,共募集了3000萬美元,由Hack VC領投,其他參投方包括Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures和ArkStream Capital等。
值得一提的是,或許是因為收到了Aptos基金會的投資,原本在Solana上進行結算記帳的BC8.AI專案,已經轉換到了同樣的高效能L1 Aptos上進行。
根據此前創辦人兼CEO Ahmad Shadid的說法,IO.NET將在4月底推出代幣。IO.NET有兩個可以作為估值參考的標的專案:Render Network和Akash Network,它們都是代表性的分散式計算專案。
我們可以用兩種方式推演IO.NET的市值區間:1. 市銷比,即:市值/收入比;2. 市值/網路晶片數比。
從市銷比的角度來看,Akash可以作為IO.NET的估值區間的下限,而Render則作為估值的高位定價參考,其FDV區間為16.7億~59.3億美元。但考慮到IO.NET專案更新,敘事更熱,加上早期流通市值較小,以及目前更大的供應端規模,其FDV超過Render的可能性並不小。
再來看另一個對比估值的角度,即「市晶比」。在AI算力求大於供的市場背景下,分散式AI算力網路最重要的要素是GPU供應端的規模。因此,我們可以以「市晶比」來橫向對比,用「專案總市值與網路內晶片的數量之比」來推演IO.NET可能的估值區間,供讀者作為一個市值參考。如果以市晶比來推算IO.NET的市值區間,IO.NET以Render Network的市晶比為上限,以Akash Network為下限,其FDV區間為206億~1975億美元。
總體來說,從市銷比的角度進行的估值測算可能更有參考性。IO.NET作為疊加了AI+DePIN+Solana生態三重光環的專案,其上線後的市值表現究竟如何,讓我們拭目以待。