Fred

Fred

Change the world by Web3 @RyzeLabs | alumni @THUBA_DAO

[深度分析]AI和Web3能碰撞出什麼樣的火花?

引言:AI+Web3 的发展#

在過去的幾年中,人工智能(AI)和 Web3 技術的快速發展引起了全球範圍內的廣泛關注。AI 作為一種模擬和模仿人類智能的技術,已經在人臉識別、自然語言處理、機器學習等領域取得了重大突破。AI 技術的快速發展為各行各業帶來了巨大的變革和創新。

AI 行業的市場規模在 2023 年達到了 2000 億美元,OpenAI、Character.AI、Midjourney 等行業巨頭和優秀玩家如雨後春筍般湧現,引領了 AI 熱潮。

與此同時,Web3 作為一種新興的網絡模式,正在逐步改變著我們對互聯網的認知和使用方式。Web3 以去中心化的區塊鏈技術為基礎,通過智能合約、分佈式存儲和去中心化身份驗證等功能,實現了數據的共享與可控、用戶的自治和信任機制的建立。Web3 的核心理念是將數據從中心化的權威機構手中解放出來,賦予用戶對數據的控制權和數據價值的分享權。

目前 Web3 行業的市值達到了 25 萬億,無論是 Bitcoin、Ethereum、Solana 還是應用層的 Uniswap、Stepn 等玩家,新的敘事和場景也層出不窮的湧現,吸引著越來越多人加入 Web3 行業。

容易發現,AI 與 Web3 的結合是東西方的 builder 和 VC 都十分關注的領域,如何將兩者很好地融合是一個十分值得探索的問題。

本文將重點探討 AI+Web3 的發展現狀,探索這種融合所帶來的潛在價值和影響。我們將首先介紹 AI 和 Web3 的基本概念和特點,然後探討它們之間的相互關係。隨後,我們將分析當前 AI+Web3 項目的現狀,並深入討論它們所面臨的局限性和挑戰。通過這樣的研究,我們期望能夠為投資者和相關行業的從業者提供有價值的參考和洞察。

AI 與 Web3 交互的方式#

AI 和 Web3 的發展就像天平的兩側,AI 帶來了生產力的提升,而 Web3 帶來了生產關係的變革。那么 AI 和 Web3 能碰撞出什麼樣的火花呢?我們接下來會先來分析 AI 和 Web3 行業各自面臨的困境和提升空間,然後再探討彼此是怎麼樣幫助解決這些困境。
AI 行業面臨的困境和潛在提升空間
Web3 行業面臨的困境和潛在提升空間

AI 行業面臨的困境#

要想探究 AI 行業面臨的困境,我們首先來看看 AI 行業的本質。AI 行業的核心離不開三個要素:算力、算法和數據。

image

  1. 首先是算力:算力指的是進行大規模計算和處理的能力。AI 任務通常需要處理大量的數據和進行複雜的計算,例如訓練深度神經網絡模型。高強度的計算能力可以加速模型訓練和推理過程,提高 AI 系統的性能和效率。近年來,隨著硬件技術的發展,如圖形處理器(GPU)和專用 AI 芯片(如 TPU),算力的提升對於 AI 行業的發展起到了重要的推動作用。近年股票瘋漲的 Nvidia 就是作為 GPU 的提供商佔據了大量的市場份額,賺取了高額的利潤。

  2. 什麼是算法:算法是 AI 系統的核心組成部分,它們是用於解決問題和實現任務的數學和統計方法。AI 算法可以分為傳統機器學習算法和深度學習算法,其中深度學習算法在近年來取得了重大突破。算法的選擇和設計對於 AI 系統的性能和效果至關重要。不斷改進和創新的算法可以提高 AI 系統的準確性、魯棒性和泛化能力。不同的算法會有不同的效果,所以算法的提升對於完成任務的效果來說也是至關重要的。

  3. 數據為什麼重要:AI 系統的核心任務是通過學習和訓練來提取數據中的模式和規律。數據是訓練和優化模型的基礎,通過大規模的數據樣本,AI 系統可以學習到更準確、更智能的模型。豐富的數據集能夠提供更全面、多樣化的信息,使得模型可以更好地泛化到未見過的數據上,幫助 AI 系統更好地理解和解決現實世界的問題。

了解當前 AI 的核心三要素之後,讓我們來看看 AI 在這三方面遇到的困境和挑戰,首先是算力方面,AI 任務通常需要大量的計算資源來進行模型訓練和推理,特別是對於深度學習模型而言。然而,獲取和管理大規模的算力是一個昂貴和複雜的挑戰。高性能計算設備的成本、能耗和維護都是問題。尤其是對於初創企業和個人開發者來說,獲得足夠的算力可能是困難的。

在算法方面,儘管深度學習算法在許多領域取得了巨大的成功,但仍然存在一些困境和挑戰。例如,訓練深度神經網絡需要大量的數據和計算資源,而且對於某些任務,模型的解釋性和可解釋性可能不足。此外,算法的魯棒性和泛化能力也是一個重要問題,模型在未見過的數據上的表現可能不穩定。在眾多的算法中,如何找到最好的算法提供最好的服務,是一個需要不斷探索的過程。

在數據方面,數據是 AI 的驅動力,但獲取高質量、多樣化的數據仍然是一個挑戰。有些領域的數據可能很難獲得,例如醫療領域的敏感健康數據。此外,數據的質量、準確性和標註也是問題,不完整或有偏見的數據可能導致模型的錯誤行為或偏差。同時,保護數據的隱私和安全也是一個重要的考慮因素。

此外,還存在著可解釋性和透明度等問題,AI 模型的黑盒特性是一個公眾關注的問題。對於某些應用,如金融、醫療和司法等,模型的決策過程需要可解釋和可追溯,而現有的深度學習模型往往缺乏透明度。解釋模型的決策過程和提供可信賴的解釋仍然是一個挑戰。

除此之外,很多 AI 項目創業的商業模式不是很清晰,這一點也讓許多的 AI 創業者感到迷茫。

Web3 行業面臨的困境#

而在 Web3 行業方面,目前也存在很多不同方面的困境需要解決,無論是對於 Web3 的數據分析,還是 Web3 產品較差的用戶體驗,亦或者是在智能合約代碼漏洞與黑客攻擊的問題,都有很多提升的空間。而 AI 作為提高生產力的工具,在這些方面也有很多潛在的發揮空間。

首先是數據分析與預測能力方面的提升:AI 技術在數據分析和預測方面的應用為 Web3 行業帶來了巨大的影響。通過 AI 算法的智能分析和挖掘,Web3 平台可以從海量的數據中提取有價值的信息,並進行更準確的預測和決策。這對於去中心化金融(DeFi)領域中的風險評估、市場預測和資產管理等方面具有重要意義。

此外,也可以實現用戶體驗和個性化服務的改進:AI 技術的應用使得 Web3 平台能夠提供更好的用戶體驗和個性化服務。通過對用戶數據的分析和建模,Web3 平台可以為用戶提供個性化的推薦、定制化的服務以及智能化的交互體驗。這有助於提高用戶參與度和滿意度,促進 Web3 生態系統的發展,例如許多 Web3 協議接入 ChatGPT 等 AI 工具來更好地服務用戶。

在安全性和隱私保護方面,AI 的應用對 Web3 行業也具有深遠的影響。AI 技術可以用於檢測和防禦網絡攻擊、識別異常行為,並提供更強大的安全保障。同時,AI 還可以應用於數據隱私保護,通過數據加密和隱私計算等技術,保護用戶在 Web3 平台上的個人信息。在智能合約的審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全隱患,AI 技術可以用於自動化合約審計和漏洞檢測,提高合約的安全性和可靠性。

可以看出,對於 Web3 行業面臨的困境和潛在的提升空間裡,AI 在很多方面都能夠參與和給予助力。

AI+Web3 項目現狀分析#

結合 AI 和 Web3 的項目主要從兩個大的方面入手,利用區塊鏈技術提升 AI 項目的表現,以及利用 AI 技術來服務於 Web3 項目的提升。

圍繞著兩個方面,湧現出了一大批項目在這條路上探索,包括 Io.net、Gensyn、Ritual 等各式各樣的項目,接下來本文將從 AI 助力 web3 和 Web3 助力 AI 的不同子賽道分析現狀和發展情況。

image

Web3 助力 AI#

去中心化算力#

從 OpenAI 在 2022 年底推出 ChatGPT 後,就引爆了 AI 的熱潮,推出後 5 天,用戶數量就達到了 100 萬,而之前 Instagram 花了大約兩個半月才達到 100 萬下載量。之後,Chatgpt 發力也是十分迅猛,2 個月內月活用戶數達到了 1 億,到 2023 年 11 月,周活用戶數達到了 1 億。伴隨著 Chatgpt 的問世,AI 領域也迅速的從一個小眾的賽道爆發成為一個備受關注的行業。

根據 Trendforce 的報告,ChatGPT 需要 30000 個 NVIDIA A100 GPU 才能運行,而未來 GPT-5 將需要更多數量級的計算。這也讓各個 AI 公司之間開啟了軍備競賽,只有掌握了足夠多的算力,才能夠確定在 AI 之戰中有足夠的動力和優勢,也因此出現了 GPU 短缺的現象。

在 AI 崛起之前,GPU 的最大提供商英偉達的客戶都集中在三大雲服務中:AWS、Azure 和 GCP。隨著人工智能的興起,出現了大量新的買家,包括大科技公司 Meta、甲骨文以及其他數據平台和人工智能初創公司,都加入了囤積 GPU 來訓練人工智能模型的戰爭中。Meta 和特斯拉等大型科技公司大量增加了定制 AI 模型和內部研究的購買量。Anthropic 這樣的基礎模型公司以及 Snowflake 和 Databricks 這樣的數據平台也購買了更多 GPU,來幫助客戶提供人工智能服務。

正如去年 Semi Analysis 提到的 “GPU 富人和 GPU 窮人”,少數幾家公司擁有 2 萬多 A100/H100 GPU,團隊成員可以為項目使用 100 到 1000 個 GPU。這些公司要麼是雲提供商或者是自建 LLM,包括 OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral 等。

然而大部分的公司都屬於 GPU 窮人,只能在數量少得多的 GPU 上掙扎,花費大量的時間和精力去做較難推動生態系統發展的事情。而且這種情況並不局限於初創公司。一些最知名的人工智能公司 --Hugging Face、Databricks (MosaicML)、Together 甚至 Snowflake 的 A100/H100 數量都小於 20K。這些公司擁有世界一流的技術人才,卻受限於 GPU 的供應數量,相比於大公司在人工智能中競賽中處於劣勢。

這種短缺並不局限於 “GPU 窮人” 中,甚至在去 2023 年年底,AI 賽道的龍頭 OpenAI 因為無法獲得足夠的 GPU,不得不關閉付費註冊數周,同時採購更多的 GPU 供應。

image

可以看出,伴隨著 AI 高速發展帶來的 GPU 的需求側和供給側出現了嚴重的不匹配,供不應求的問題迫在眉睫。

為了解決這一問題,一些 Web3 的項目方開始嘗試結合 Web3 的技術特點,提供去中心化的算力服務,包括 Akash、Render、Gensyn 等等。這類項目的共同之處在於,通過代幣來激勵廣大用戶提供閒置的 GPU 算力,成為了算力的供給側,來為 AI 客戶提供算力的支持。

供給側畫像主要可以分為三個方面:雲服務商、加密貨幣礦工、企業。

雲服務商包括大型雲服務商(如 AWS、Azure、GCP)以及 GPU 雲服務商(如 Coreweave, Lambda, Crusoe 等),用戶可以轉售閒置的雲服務商的算力來獲得收入。加密礦工隨著以太坊從 PoW 轉向 PoS,閒置的 GPU 算力也成為了重要的潛在供給側。此外,像特斯拉、Meta 這類因為戰略佈局而購買了大量 GPU 的大型企業,也可以將閒置的 GPU 算力作為供給側。

目前賽道的玩家大致分為兩類,一類是將去中心化算力用於 AI 的推理,另一類是將去中心化算力用作 AI 訓練。前者如 Render(雖然聚焦在渲染,但也可用作 AI 算力的提供)、Akash、Aethir 等;後者如 io.net(推理和訓練都可以支持)、Gensyn,兩者最大的差異在於算力的要求不同。

先來聊聊前者 AI 推理的項目,這類項目通過代幣激勵的方式吸引用戶參與算力的提供,再將算力網絡服務提供給需求側,從而實現了閒置算力的供需撮合。其中關於這類項目的介紹與分析在我們 Ryze Labs 之前 DePIN 的研報中有提到,歡迎查閱。

最核心的點在於通過代幣激勵機制,項目先吸引供給者,然後吸引用戶使用,從而實現了項目的冷啟動和核心運轉機制,從而能夠進一步的擴張和發展起來。在這種循環之下,供給側有了更多更有價值的代幣回報,需求側有了更便宜性價比更高的服務,項目的代幣價值和供需雙方參與者的增長保持一致,隨著代幣價格的上升,吸引更多參與者和投機者參與,形成價值捕獲。

image

另一類是將去中心化算力用於 AI 的訓練,如 Gensyn、io.net(AI 訓練和 AI 推理都可以支持)。其實這一類項目的運轉邏輯和 AI 推理類項目並無太大的本質差異,依舊是通過代幣激勵吸引供給側的參與提供算力,供需求側來使用。

其中 io.net 作為去中心化算力網絡,目前 GPU 數量超過了 50 萬,在去中心化算力項目中表現很突出,此外,目前已經也集成了 Render 和 filecoin 的算力,開始不斷發展生態項目。

image

此外, Gensyn 是通過智能合約方式可促進機器學習的任務分配和獎勵,來實現 AI 的訓練。如下圖所示,Gensyn 的機器學習訓練工作的每小時成本約在 0.4 美元,而遠遠低於 AWS 和 GCP 超過 2 美元的成本。

Gensyn 的體系中包括四個參與主體:提交者、執行者、驗證者和舉報者。

  • 提交者:需求用戶是任務的消費者,提供將被計算的任務,為 AI 訓練任務付費
  • 執行者:執行者執行模型訓練的任務,並生成完成了任務的證明來供驗證者的檢查。
  • 驗證者:將非確定性訓練過程與確定性線性計算聯繫起來,將執行者的證明與預期閾值進行比較。
  • 舉報者:檢查驗證者的工作,在發現問題時並提出質疑來獲得收益。

可以看出,Gensyn 希望成為一個面向全球深度學習模型的超大規模、經濟高效的計算協議。
但是縱觀這個賽道,為什麼大部分的項目選擇去中心化算力做 AI 推理而不選擇訓練呢?
在這裡也幫助不了解 AI 訓練和推理的朋友介紹一下兩者的區別:

  • AI 訓練:如果我們把人工智能比作一個學生,那麼訓練就類似於給人工智能提供了大量知識、示例也可以理解為我們常說的數據,人工智能從這些知識示例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。
  • AI 推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或者參加考試,在推理的階段中人工智能是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。
    可以看出兩者的算力需求是差別較大的,關於去中心化算力在 AI 推理和 AI 訓練方面的可用性將在後面的挑戰章節進行更深入的剖析。

此外,還有 Ritual 希望將分佈式網絡與模型的創建者結合,保持去中心化和安全性。其第一個產品 Infernet 讓區塊鏈上的智能合約可以在鏈下訪問 AI 模型,允許此類合約以保持驗證、去中心化和保護隱私的方式訪問 AI。

Infernet 的協調器負責管理節點在網絡中的行為和響應消費者發出的計算請求。用戶使用 infernet 時,推理、證明等工作會放在鏈下,輸出結果返回至協調器,並通過合約最終傳給鏈上的消費者。

除了去中心化算力網絡之外,也有 Grass 這類的去中心化帶寬網絡,來提升數據傳輸的速度和效率。總的來說,去中心化算力網絡的出現,為 AI 的算力供給側提供了一個新的可能性,推動著 AI 向更遠的方向前行。

去中心化算法模型#

正如第二章中提到的,AI 的三個核心要素為算力、算法和數據。既然算力可以通過去中心化的方式形成一個供給網絡,那麼算法是否也能有類似的思路,形成一個算法模型的供給網絡呢?
在分析賽道項目之前,首先讓我們一起了解下去中心化算法模型的意義,很多人會好奇,既然已經有了 OpenAI,為什麼還需要去中心化的算法網絡呢?

本質上,去中心化的算法網絡是一個去中心化的 AI 算法服務市場,鏈接了許多不同的 AI 模型,每個 AI 模型有自己擅長的知識和技能,當用戶提出問題的時候,市場會挑選出最適合回答問題的 AI 模型來提供答案。而 Chat-GPT 是 OpenAI 開發的一種 AI 模型,可以理解和生產類似人類的文本。

簡單來說,ChatGPT 像是一個能力很強的學生來幫助解決不同類型的問題,而去中心化的算法網絡像一個有很多學生的學校來幫助解決問題,雖然現在這個學生的能力很強,但拉長周期來看,能招募全球學生加入的學校有非常大的潛力空間。

目前在去中心化算法模型這個領域,也有一些項目在嘗試和探索中,接下來將以代表性的項目 Bittensor 作為案例來幫助大家理解這個細分領域的發展情況。

在 Bittensor 中,算法模型的供給側(或者說礦工)將他們的機器學習模型貢獻給網絡。這些模型可以分析數據與提供見解。模型供給者會因其貢獻而獲得加密貨幣代幣 TAO 作為獎勵。

為了保證問題答案的質量,Bittensor 使用獨特的共識機制來確保網絡就最佳答案達成一致。當提出問題時,多個模型礦工會提供答案。然後,網絡中的驗證器會開始工作,確定最佳答案,然後將其發送回用戶。

Bittensor 的代幣 TAO 在整個流程中主要發揮兩方面的作用,一方面用作激勵礦工向網絡貢獻算法模型,另一方面用戶需要花費代幣來提問與讓網絡完成任務。

由於 Bittensor 是去中心化的,任何有互聯網接入的人都可以加入網絡,既可以作為提出問題的用戶,也可以作為提供答案的礦工。這使得更多人能夠使用強大的人工智能。

總之,以 Bittensor 等網絡為例,去中心化的算法模型領域有可能創造一個更加開放、透明的局面,在這個生態系統中,人工智能模型可以以安全和分散的方式進行訓練、共享和利用。此外也有像 BasedAI 這樣的去中心化的算法模型網絡在嘗試類似的事情,當然其更有趣的部分在於通過 ZK 來保護用戶與模型交互式的數據隱私,這個在第四個小節也會進一步討論。

隨著去中心化算法模型平台的發展,它們將使小型公司能夠在使用頂尖 AI 工具方面與大型組織競爭,從而對各個行業產生潛在的重大影響。

去中心化數據收集#

對於 AI 模型的訓練來說,大量的數據供給是必不可少的。然而目前大部分的 web2 公司仍將用戶的數據占為己有,例如 X、Reddit、TikTok、Snapchat、Instagram、YouTube 等平台禁止為人工智能訓練進行數據收集。對於 AI 行業的發展來說成為了很大的阻礙。

然而另一方面,一些 Web2 平台卻向 AI 公司出售用戶的數據,而沒有分享任何的利潤給到用戶。例如 Reddit 與 google 達成了一項價值 6000 萬美元的協議,讓 Google 在其帖子上訓練人工智能模型。從而導致數據的收集權被大資本和大數據方所霸占,導致行業超資本密集型的方向發展。

面對這樣一種現狀,一些項目結合 Web3 通過代幣激勵的方式,來實現去中心化的數據收集。
以 PublicAI 為例,在 PublicAI 中用戶可以作為兩類角色參與:

  • 一類是 AI 數據的提供者,用戶可以在 X 上找到有價值的內容,@PublicAI 官方並附上見解,使用 #AI 或 #Web3 作為分類標籤,便可以將內容發送到 PublicAI 數據中心,實現數據收集。
  • 另一類是數據驗證者,用戶可以登錄 PublicAI 數據中心,為 AI 訓練選擇最有價值的數據進行投票。
    作為回報,用戶可以通過這兩類貢獻獲得代幣激勵,從而促進了數據的貢獻者與人工智能產業開發之間的攜手共贏的關係。

除了 PublicAI 這類專門收集數據進行 AI 訓練的項目之外,還有很多項目也在通過通過代幣激勵進行去中心化的數據收集,例如 Ocean 通過數據代幣化的方式收集用戶數據來服務於 AI,Hivemapper 通過用戶的車載攝像頭來收集地圖數據、Dimo 收集用戶的汽車數據、WiHi 收集天氣數據等等,這類通過去中心化收集數據的項目,也都是潛在的 AI 訓練的供給側,所以從廣義來說,也可以納入到 Web3 助力 AI 的範式中。

ZK 保護 AI 中的用戶隱私#

區塊鏈技術帶來的除了去中心化的優勢之外,還有一個很重要的就是零知識證明。通過零知識技術,可以保護隱私的同時實現信息的驗證。

而在傳統的機器學習中,數據通常需要集中存儲和處理,這可能導致數據隱私泄露的風險。另一方面,保護數據隱私的方法,如數據加密或數據去識別化,可能會限制機器學習模型的準確性和性能。

而零知識證明的技術正好能幫助面對這一困境,來解決隱私保護和數據共享之間的衝突。
ZKML(Zero-Knowledge Machine Learning)通過使用零知識證明技術,允許在不泄露原始數據的情況下進行機器學習模型的訓練和推理。零知識證明使得數據的特徵和模型的結果可以被證明為正確,而無需揭示實際的數據內容。

ZKML 的核心目標是實現隱私保護和數據共享的平衡。它可以應用於各種場景,如醫療健康數據分析、金融數據分析和跨組織合作等。通過使用 ZKML,個體可以保護其敏感數據的隱私,同時與他人共享數據以獲得更廣泛的洞見和合作的機會,而無需擔心數據隱私泄露的風險。
目前該領域仍處於早期階段,大部分的項目仍在探索中,例如 BasedAI 提出了一種去中心化的方法,將 FHE 與 LLM 無縫集成,以保持數據機密性。利用零知識大型語言模型 (ZK-LLM) 將隱私嵌入其分佈式網絡基礎設施的核心,確保用戶數據在整個網絡運行過程中保持私密。

這裡簡單解釋下什麼是全同態加密(FHE)。全同態加密是一種加密技術,可以在加密狀態下對數據進行計算,而無需解密。這意味著在使用 FHE 加密的數據上執行的各種數學運算(如加法、乘法等)可以在保持數據的加密狀態下進行,並獲得與在原始未加密數據上執行相同運算所得到的結果,從而保護用戶數據的隱私。

此外,除了上述四類之外,在 Web3 助力 AI 方面,也有像 Cortex 這樣支持在鏈上執行 AI 程序的區塊鏈項目。目前,在傳統區塊鏈上執行機器學習程序面臨一個挑戰,虛擬機在運行任何非複雜的機器學習模型時效率極低。因此,大多數人認為在區塊鏈上運行人工智能是不可能的。而 Cortex 虛擬機(CVM)利用 GPU,可以在鏈上執行 AI 程序,並且與 EVM 兼容。換句話說,Cortex 鏈可以執行所有以太坊 Dapp,並在此基礎上將 AI 機器學習融入這些 Dapp。從而實現了以去中心化、不可變和透明的方式運行機器學習模型,因為網絡共識會驗證人工智能推理的每一步。

AI 助力 web3#

在 AI 和 Web3 的碰撞中,除了 Web3 對 AI 的助力之外,AI 對於 Web3 行業的助力也十分值得關注。人工智能的核心貢獻在於生產力的提升,因此在 AI 審計智能合約、數據分析與預測、個性化服務、安全和隱私保護等方面都有許多嘗試。

數據分析與預測#

目前很多 Web3 項目開始集成現有的 AI 服務(例如 ChatGPT)或者自研來為 Web3 用戶提供數據分析和預測類的服務。涵蓋面非常廣,包括通過 AI 算法提供投資策略、鏈上分析 AI 工具、價格與市場預測等等。

例如 Pond 通過 AI 圖算法來預測未來的有價值的 alpha token,為用戶和機構提供投資輔助建議;還有 BullBear AI 根據用戶的歷史數據和價格線歷史以及市場走勢進行訓練,以提供最準確的信息來支持預測價格走勢,來幫助用戶獲得收益和利潤。

還有 Numerai 這類的投資競賽平台,參賽者基於 AI 與大語言模型等來預測股票市場,利用平台提供免費的高質量數據訓練模型,並每天提交預測。Numerai 會計算這些預測在接下來一個月中的表現,參賽者可以將 NMR 押注在模型上,根據模型的表現獲得收益。

此外,還有 Arkham 這類鏈上數據分析平台也結合 AI 進行服務。Arkham 將區塊鏈地址與交易所、基金和巨鯨等實體聯繫起來,並向用戶展示這些實體的關鍵數據和分析,為用戶提供決策優勢。其與 AI 結合的部分在於 Arkham Ultra 通過算法將地址與現實世界的實體進行匹配,由 Arkham 核心貢獻者在 Palantir 和 OpenAI 創始人的支持下歷時 3 年開發而成。

個性化服務#

在 Web2 的項目中,AI 在搜索和推薦領域都有很多的應用場景,服務於用戶的個性化需求。在 Web3 項目中也是如此,不少項目方通過集成 AI 的方式來優化用戶的使用體驗。

例如大家比較熟知的數據分析平台 Dune,最近新推出了 Wand 工具,用於借助大型語言模型編寫 SQL 查詢。通過 Wand Create 功能,用戶可以根據自然語言問題自動生成 SQL 查詢,從而使不懂 SQL 的用戶也可以非常方便的進行搜索。

此外,還有一些 Web3 的內容平台也開始集成 ChatGPT 進行內容總結,例如 Web3 媒體平台 Followin 集成了 ChatGPT 來總結某一賽道的觀點和最新近況;Web3 百科全書平台 IQ.wiki 致力於成為網絡上區塊鏈技術和加密貨幣有關的一切客觀、高質量知識的主要來源,讓區塊鏈在全球範圍內更容易被發現和獲取,並為用戶提供他們可以信賴的信息,其也集成了 GPT-4 來總結 wiki 文章;以及基於 LLM 的搜索引擎的 Kaito 致力於成為 Web3 搜索平台,改變 Web3 的信息獲取方式。

在創作方面,也有像 NFPrompt 這樣減少用戶創作成本的項目。NFPrompt 讓用戶可以通過 AI 來更容易的生成 NFT,從而降低了用戶的創作成本,在創作方面提供了許多個性化的服務。

AI 審計智能合約#

在 Web3 領域中,智能合約的審計也是一個非常重要的工作,通過 AI 去實現智能合約代碼的審計,可以更加高效準確的識別和找出代碼中的漏洞。

正如 Vitalik 曾提到,加密貨幣領域面臨的一個最大挑戰是我們代碼中的錯誤。而一個令人期待的可能性是,人工智能(AI)能夠顯著簡化使用形式驗證工具來證明滿足特定屬性的代碼集。如果能夠做到這一點,我們有可能擁有無錯誤的 SEK EVM(例如以太坊虛擬機)。減少錯誤的數量越多,空間的安全性就會增加,而 AI 對於實現這一點來說非常有幫助。

例如 0x0.ai 項目提供了人工智能智能合約審計器,是一種使用先進算法分析智能合約並識別可能導致欺詐或其他安全風險的潛在漏洞或問題的工具。審計員使用機器學習技術識別代碼中的模式和異常,標記出潛在問題,以便進一步審查。

除了上述三類之外,還有一些利用 AI 來助力 Web3 領域的原生案例,例如 PAAL 幫助用戶創建個性化 AI Bot,可以部署到 Telegram 和 Discord 上來服務於 Web3 的用戶;AI 驅動的多鏈 dex 聚合器 Hera,利用 AI 來提供最廣泛的代幣以及任何代幣對之間的最佳交易路徑,整體來說,AI 助力 Web3 更多的是作為工具層面的助力。

AI+Web3 項目的局限性和挑戰現狀#

去中心化算力方面存在的現實阻礙#

目前的 Web3 助力 AI 的項目中,很大一部分都在發力於去中心化算力,通過代幣激勵的方式來促進全球的用戶都能成為算力供給側是一個非常有趣的創新,不過另一方面,也面臨著一些現實的問題需要解決:

相比中心化算力服務提供商,去中心化算力產品通常依賴於分佈在全球的節點和參與者提供計算資源。由於這些節點之間的網絡連接可能存在延遲和不穩定性,因此性能和穩定性可能較中心化算力產品差。

此外,去中心化算力產品的可用性受到供應和需求之間的匹配程度的影響。如果沒有足夠的供應者或者需求過高,可能會導致資源不足或者無法滿足用戶需求。

最後,相比中心化算力產品,去中心化算力產品通常涉及更多的技術細節和複雜性。用戶可能需要了解並處理分佈式網絡、智能合約和加密貨幣支付等方面的知識,用戶理解和使用的成本會變高。

和大量的去中心化算力項目方深入探討後發現,目前的去中心化算力基本還是只能局限在 AI 推理而不是 AI 訓練。

接下來我將以四個小問題來幫助大家理解背後的原因:
1、為什麼大部分去中心化算力項目都選擇做 AI 推理而不是 AI 訓練?
2、英偉達究竟牛在哪裡?去中心化算力訓練難做的原因在哪?
3、去中心化算力(Render、Akash、io.net 等)的終局會是什麼樣?
4、去中心化算法(Bittensor)的終局會是什麼樣?

接下來咱們層層抽絲剝繭:
1)縱觀這個賽道,大部分的去中心化算力項目都選擇做 AI 推理而不是訓練,核心在於對於算力和帶寬的要求不同。

為了幫助大家的更好地理解,我們來把 AI 比作一個學生:

AI 訓練:如果我們把人工智能比作一個學生,那麼訓練就類似於給人工智能提供了大量知識、示例也可以理解為我們常說的數據,人工智能從這些知識示例中進行學習。由於學習的本質需要理解和記憶大量的信息,這個過程需要大量的計算能力和時間。

AI 推理:那什麼是推理呢?可以理解為利用所學的知識去解決問題或者參加考試,在推理的階段中人工智能是利用學到的知識去解答,而不是活動新知識,所以在推理過程所需要的計算量是較小的。

容易發現,兩者的難度差本質上在於大模型 AI 訓練需要極大的數據量,以及對數據高速通信需要的帶寬需求極高,所以目前去中心化算力用作訓練的實現難度極大。而推理對於數據和帶寬的需求小的多,實現可能性更大。

對於大模型來說,最重要的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。另一方面,對於算力要求相對較低的需求是可以實現的,例如上文提到的 AI 推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網絡中有一些相對大的節點服務商,可以為這些相對大的算力需求服務。

2)那麼數據和帶寬的卡點究竟在哪?為什麼去中心化訓練難以實現?

這就涉及到大模型訓練的兩個關鍵要素:單卡算力和多卡並聯。
單卡算力:目前所有的需要訓練大模型的中心,我們把它叫做超算中心。為了方便大家的理解,我們可以以人體作為比喻,超算中心就是人體的組織,底層單元 GPU 就是細胞。如果單個細胞(GPU)的算力很強,那麼整體的算力(單個細胞 × 數量)也可能會很強。

多卡並聯:而一個大模型的訓練動輒就是千億 GB,對於訓練大模型的超算中心來說,至少需要萬級別個 A100 打底。所以就需要調動這幾萬張卡來進行訓練,然而大模型的訓練並不是簡單的串聯,並不是在第一個 A100 卡上訓練完之後再在第二張卡上訓練,而是模型的不同部分,在不同的顯卡上訓練,訓練 A 的時候可能需要 B 的結果,所以涉及到多卡並行。

為什麼英偉達這麼厲害,市值一路騰飛,而 AMD 和國內的華為、地平線目前很難追上。核心並不是單卡算力本身,而是在於兩個方面:CUDA 軟件環境和 NVLink 多卡通信。

一方面,有沒有軟件生態能適配硬件是非常重要的,如英偉達的 CUDA 系統,而構建一個新的系統是很難的,就像構建了一個新的語言,替換成本非常高。

另一方面,就是多卡通信,本質上多卡之間的傳輸就是信息的輸入和輸出,怎麼並聯,怎麼傳輸。因為 NVLink 的存在,沒有辦法把英偉達和 AMD 卡打通;另外,NVLink 會限制顯卡之間的物理距離,需要顯卡在同一個超算中心中,這就導致去中心化的算力如果分佈在世界各地就比較難實現。

第一點解釋了為什麼 AMD 和國內的華為、地平線目前很難追上;第二點解釋了為什麼去中心化訓練很難實現。

3)去中心化算力的終局會是什麼樣?
去中心化算力目前難以進行大模型訓練,核心在於大模型訓練最看重的是穩定性,如果訓練中斷,需要重新訓練,沉沒成本很高。其對於多卡並聯的要求是很高的,而帶寬是受物理距離的限制的。英偉達通過 NVLink 來實現多卡通信,然而在一個超算中心裡面,NVLink 會限制顯卡之間的物理距離,因此分散的算力無法形成一個算力集群去進行大模型訓練。

但另一方面,對於算力要求相對較低的需求是可以實現的,例如 AI 推理,或者是一些特定場景的垂類中小型的模型訓練是有可能實現的,在去中心化算力網絡中有一些相對大的節點服務商時,是有潛力為這些相對大的算力需求服務的。以及像渲染這類邊緣計算的場景也是相對容易實現的。

4)去中心化算法模型的終局會是什麼樣?
去中心化算法模型的終局取決於對未來 AI 的終局,我認為未來 AI 之戰可能會是有 1-2 個閉源模型巨頭(如 ChatGPT),再加上百花齊放的模型,在這種背景下,應用層產品沒有必要和一個大模型綁定,而是與多個大模型合作,在這種背景下來看,Bittensor 的這種模式潛力還是非常大的。

AI+Web3 的結合較為粗糙,沒有實現 1+1>2#

目前在 Web3 與 AI 結合的項目中,尤其是 AI 助力 Web3 項目方面,大多數項目仍然只是表面上使用 AI,沒有真正體現出 AI 與加密貨幣之間的深度結合。這種表面化的應用主要體現在以下兩個方面:
首先,無論是利用 AI 進行數據分析和預測,還是在推薦和搜索場景中使用 AI,或者是進行代碼審計,與 Web2 項目和 AI 的結合並沒有太大的區別。這些項目僅僅是簡單地利用 AI 提升效率和進行分析,沒有展現出 AI 與加密貨幣之間的原生融合和創新性解決方案。
其次,許多 Web3 團隊與 AI 的結合更多地是在營銷層面上純粹利用 AI 的概念。他們只是在非常有限的領域運用了 AI 技術,然後開始宣傳 AI 的趨勢,營造出一種項目與 AI 很緊密的假象。然而,在真正的創新方面,這些項目還存在很大的空白。
儘管當前的 Web3 與 AI 項目還存在這些局限性,但我們應該意識到這僅僅是發展的早期階段。未來,我們可以期待更加深入的研究和創新,以實現 AI 與加密貨幣之間更緊密的結合,並在金融、去中心化自治組織、預測市場和 NFT 等領域創造出更原生且有意義的解決方案。

代幣經濟學成為 AI 項目敘事的緩衝之劑#

正如一開始提到的 AI 項目的商業模式難題,由於越來越多大模型開始逐漸開源,目前大量的 AI+Web3 的項目很多時候是純 AI 項目難以在 Web2 發展和融資,於是選擇疊加 Web3 的敘事和代幣經濟學來促進用戶的參與。

但真正關鍵的是代幣經濟學的融入是否真正有助於 AI 項目解決實際需求,還是單純的敘事或者走短期價值,其實是需要打一個問號的。

目前大部分的 AI+Web3 項目還遠遠沒有到實用的階段,希望能有更多踏實有想法的團隊能夠不僅僅將 token 作為 AI 項目的一个造勢,而是真正地滿足實際的需求場景。

總結#

當前,AI+Web3 的項目已經湧現出許多案例和應用。首先,AI 技術可以為 Web3 提供更高效、智能的應用場景。通過 AI 的數據分析和預測能力,可以幫助 Web3 的用戶在投資決策等場景中擁有更好的工具;此外,AI 還可以審計智能合約代碼,優化智能合約的執行過程,提高區塊鏈的性能和效率。同時,AI 技術還可以為去中心化應用提供更精確、智能的推薦和個性化服務,提升用戶體驗。

與此同時,Web3 的去中心化和可編程性特點也為 AI 技術的發展提供了新的機遇。通過代幣激勵的方式,去中心化算力的項目為 AI 算力供不應求的困境提供了新的解決方案,Web3 的智能合約和分佈式存儲機制也為 AI 算法的共享和訓練提供了更廣闊的空間和資源。Web3 的用戶自治和信任機制也為 AI 的發展帶來了新的可能性,用戶可以自主選擇參與數據共享和訓練,從而提高數據的多樣性和質量,進一步改善 AI 模型的性能和準確度。

儘管目前的 AI+Web3 的交叉項目仍處於早期,有許多困境需要面對,但其也帶來了很多優勢。例如去中心化算力產品存在一些缺點,但降低了對中心化機構的依賴、提供了更大的透明度和可審計性,以及能夠實現更廣泛的參與和創新。對於特定的使用案例和用戶需求,去中心化算力產品可能是一個有價值的選擇;在數據收集方面也是如此,去中心化數據收集項目也帶來了一些優勢,如減少單一數據源的依賴、提供更廣泛的數據覆蓋範圍以及促進數據的多樣性和包容性等。在實踐中,需要權衡這些優缺點,並採取相應的管理和技術措施來克服挑戰,以確保去中心化數據收集項目對 AI 的發展產生積極的影響。

總的來說,AI+Web3 的融合為未來的科技創新和經濟發展提供了無限的可能性。通過將 AI 的智能分析和決策能力與 Web3 的去中心化和用戶自治相結合,相信未來可以構建更智能、更開放、更公正的經濟乃至社會系統。

參考資料#

https://docs.bewater.xyz/zh/aixcrypto/
https://medium.com/@ModulusLabs
https://docs.bewater.xyz/zh/aixcrypto/chapter2.html#_3-4-4-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%8A%80%E6%9C%AF%E5%BC%80%E6%BA%90%E7%9A%84%E9%97%AE%E9%A2%98
https://docs.bewater.xyz/zh/aixcrypto/chapter4.html#_1-2-1-%E6%95%B0%E6%8D%AE
https://mirror.xyz/lukewasm.eth/LxhWgl-vaAoM3s_i9nCP8AxlfcLvTKuhXayBoEr00mA
https://www.galaxy.com/insights/research/understanding-intersection-crypto-ai/
https://www.theblockbeats.info/news/48410?search=1
https://www.theblockbeats.info/news/48758?search=1
https://www.theblockbeats.info/news/49284?search=1
https://www.theblockbeats.info/news/50419?search=1
https://www.theblockbeats.info/news/50464?search=1
https://www.theblockbeats.info/news/50814?search=1
https://www.theblockbeats.info/news/51165?search=1
https://www.theblockbeats.info/news/51099?search=1
https://www.techflowpost.com/article/detail_16418.html
https://blog.invgate.com/chatgpt-statistics
https://www.windowscentral.com/hardware/computers-desktops/chatgpt-may-need-30000-nvidia-gpus-should-pc-gamers-be-worried
https://www.trendforce.com/presscenter/news/20230301-11584.html
https://www.linkedin.com/pulse/great-gpu-shortage-richpoor-chris-zeoli-5cs5c/
https://www.semianalysis.com/p/google-gemini-eats-the-world-gemini
https://news.marsbit.co/20230613141801035350.html
https://medium.com/@taofinney/bittensor-tao-a-beginners-guide-eb9ee8e0d1a4
https://www.hk01.com/%E7%B6%B2%E7%A7%91%E5%8D%9A%E5%AE%A2/1006289/iosg-%E5%BE%9E-ai-x-web3-%E6%8A%80%E8%A1%93%E5%A0%86%E6%A3%A8%E5%B1%95%E9%96%8B-infra-%E6%96%B0%E6%95%B8%E4%BA%8B
https://arxiv.org/html/2403.01008v1

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。