Fred

Fred

Change the world by Web3 @RyzeLabs | alumni @THUBA_DAO

[深度分析]AIとWeb3はどのような火花を散らすことができるのか?

引言:AI+Web3 の発展#

過去数年間、人工知能(AI)と Web3 技術の急速な発展は、世界中で広く注目を集めています。AI は人間の知能を模倣する技術として、顔認識、自然言語処理、機械学習などの分野で重要なブレークスルーを達成しています。AI 技術の急速な発展は、さまざまな業界に大きな変革と革新をもたらしました。

AI 業界の市場規模は 2023 年に 2000 億ドルに達し、OpenAI、Character.AI、Midjourney などの業界の巨人や優れたプレイヤーが次々と登場し、AI ブームを牽引しています。

一方、Web3 は新興のネットワークモデルとして、私たちのインターネットに対する認識と使用方法を徐々に変えています。Web3 は分散型のブロックチェーン技術に基づき、スマートコントラクト、分散ストレージ、分散型アイデンティティ認証などの機能を通じて、データの共有と制御、ユーザーの自治、信頼メカニズムの構築を実現しています。Web3 の核心理念は、データを中央集権的な権威機関から解放し、ユーザーにデータの制御権とデータ価値の共有権を与えることです。

現在、Web3 業界の時価総額は 25 兆ドルに達しており、Bitcoin、Ethereum、Solana、またはアプリケーション層の Uniswap、Stepn などのプレイヤーが新しい物語やシナリオを次々と生み出し、ますます多くの人々が Web3 業界に参加しています。

AI と Web3 の結合は、東西のビルダーや VC が非常に注目している分野であり、両者をどのようにうまく融合させるかは、非常に探求する価値のある問題です。

本稿では、AI+Web3 の発展状況に焦点を当て、この融合がもたらす潜在的な価値と影響を探ります。まず、AI と Web3 の基本概念と特徴を紹介し、次にそれらの相互関係を探ります。その後、現在の AI+Web3 プロジェクトの状況を分析し、彼らが直面している制約と課題について深く議論します。この研究を通じて、投資家や関連業界の専門家に有益な参考と洞察を提供できることを期待しています。

AI と Web3 の相互作用の方法#

AI と Web3 の発展は天秤の両側のようなもので、AI は生産性の向上をもたらし、Web3 は生産関係の変革をもたらします。それでは、AI と Web3 はどのような火花を散らすのでしょうか?次に、AI と Web3 業界がそれぞれ直面している困難と向上の余地を分析し、次に互いにどのようにこれらの困難を解決するのかを探ります。
AI 業界が直面している困難と潜在的な向上の余地
Web3 業界が直面している困難と潜在的な向上の余地

AI 業界が直面している困難#

AI 業界が直面している困難を探るために、まず AI 業界の本質を見てみましょう。AI 業界の核心は、計算能力、アルゴリズム、データの 3 つの要素から成り立っています。

image

  1. まずは計算能力:計算能力とは、大規模な計算と処理を行う能力を指します。AI タスクは通常、大量のデータを処理し、複雑な計算を行う必要があります。例えば、深層神経ネットワークモデルのトレーニングなどです。高強度の計算能力は、モデルのトレーニングと推論プロセスを加速し、AI システムの性能と効率を向上させます。近年、ハードウェア技術の進展に伴い、グラフィックプロセッサ(GPU)や専用 AI チップ(TPU など)の登場により、計算能力の向上は AI 業界の発展に重要な推進力をもたらしました。最近の株価急騰の Nvidia は、GPU の提供者として大量の市場シェアを占め、高額な利益を得ています。

  2. アルゴリズムとは何か:アルゴリズムは AI システムの核心的な構成要素であり、問題を解決し、タスクを実現するための数学的および統計的手法です。AI アルゴリズムは、従来の機械学習アルゴリズムと深層学習アルゴリズムに分けられ、特に深層学習アルゴリズムは近年大きなブレークスルーを達成しています。アルゴリズムの選択と設計は、AI システムの性能と効果にとって非常に重要です。継続的な改良と革新が行われるアルゴリズムは、AI システムの正確性、堅牢性、一般化能力を向上させることができます。異なるアルゴリズムは異なる効果を持つため、アルゴリズムの向上はタスクの効果を達成する上で非常に重要です。

  3. データが重要な理由:AI システムの核心的なタスクは、学習とトレーニングを通じてデータのパターンと規則を抽出することです。データはモデルのトレーニングと最適化の基礎であり、大規模なデータサンプルを通じて、AI システムはより正確で、よりインテリジェントなモデルを学習することができます。豊富なデータセットは、より包括的で多様な情報を提供し、モデルが未見のデータにうまく一般化できるようにし、AI システムが現実世界の問題をよりよく理解し解決するのを助けます。

現在の AI の核心的な 3 要素を理解した後、これらの 3 つの側面で AI が直面している困難と課題を見てみましょう。まず計算能力の面では、AI タスクは通常、大量の計算リソースを必要とし、特に深層学習モデルにとってはそうです。しかし、大規模な計算能力を取得し管理することは、高価で複雑な課題です。高性能計算デバイスのコスト、エネルギー消費、メンテナンスはすべて問題です。特にスタートアップ企業や個人開発者にとって、十分な計算能力を得ることは困難かもしれません。

アルゴリズムの面では、深層学習アルゴリズムが多くの分野で大きな成功を収めているにもかかわらず、いくつかの困難と課題が依然として存在します。例えば、深層神経ネットワークのトレーニングには大量のデータと計算リソースが必要であり、特定のタスクにおいてはモデルの解釈性や説明可能性が不足していることがあります。また、アルゴリズムの堅牢性と一般化能力も重要な問題であり、モデルが未見のデータに対して不安定なパフォーマンスを示す可能性があります。数多くのアルゴリズムの中で、最適なアルゴリズムを見つけて最良のサービスを提供することは、常に探求が必要なプロセスです。

データの面では、データは AI の推進力ですが、高品質で多様なデータを取得することは依然として課題です。特定の分野ではデータを取得することが難しい場合があります。例えば、医療分野の敏感な健康データなどです。また、データの質、正確性、ラベリングも問題であり、不完全または偏ったデータはモデルの誤った動作や偏見を引き起こす可能性があります。同時に、データのプライバシーとセキュリティを保護することも重要な考慮事項です。

さらに、解釈性や透明性の問題も存在し、AI モデルのブラックボックス特性は公共の関心事です。金融、医療、司法などの特定のアプリケーションにおいては、モデルの意思決定プロセスは説明可能で追跡可能である必要がありますが、既存の深層学習モデルはしばしば透明性に欠けています。モデルの意思決定プロセスを説明し、信頼できる説明を提供することは依然として課題です。

加えて、多くの AI プロジェクトのビジネスモデルが明確でないため、多くの AI 起業家が迷いを感じています。

Web3 業界が直面している困難#

Web3 業界においても、さまざまな側面で解決すべき困難が存在します。Web3 のデータ分析や、Web3 製品のユーザー体験の悪さ、スマートコントラクトのコードの脆弱性やハッキングの問題など、改善の余地が多くあります。AI は生産性を向上させるツールとして、これらの面でも多くの潜在的な活用の余地があります。

まず、データ分析と予測能力の向上です。AI 技術のデータ分析と予測への応用は、Web3 業界に大きな影響をもたらしています。AI アルゴリズムによるインテリジェントな分析と掘り起こしを通じて、Web3 プラットフォームは膨大なデータから価値のある情報を抽出し、より正確な予測と意思決定を行うことができます。これは、分散型金融(DeFi)分野におけるリスク評価、市場予測、資産管理などにおいて重要な意義を持ちます。

さらに、ユーザー体験とパーソナライズサービスの改善も実現できます。AI 技術の応用により、Web3 プラットフォームはより良いユーザー体験とパーソナライズサービスを提供できるようになります。ユーザーデータの分析とモデリングを通じて、Web3 プラットフォームはユーザーにパーソナライズされた推奨、カスタマイズされたサービス、インテリジェントなインタラクション体験を提供できます。これにより、ユーザーの参加度と満足度が向上し、Web3 エコシステムの発展を促進します。例えば、多くの Web3 プロトコルが ChatGPT などの AI ツールを導入して、ユーザーにより良いサービスを提供しています。

セキュリティとプライバシー保護の面でも、AI の応用は Web3 業界に深遠な影響を与えます。AI 技術は、ネットワーク攻撃の検出と防御、異常行動の識別に利用され、より強力なセキュリティを提供します。同時に、AI はデータプライバシー保護にも応用され、データ暗号化やプライバシー計算などの技術を通じて、Web3 プラットフォーム上のユーザーの個人情報を保護します。スマートコントラクトの監査においても、スマートコントラクトの作成と監査プロセスには脆弱性やセキュリティリスクが存在するため、AI 技術は自動化された契約監査や脆弱性検出に利用され、契約の安全性と信頼性を向上させることができます。

Web3 業界が直面している困難と潜在的な向上の余地において、AI は多くの面で参加し、支援することができることが明らかです。

AI+Web3 プロジェクトの現状分析#

AI と Web3 のプロジェクトは主に 2 つの大きな側面からアプローチしています。ブロックチェーン技術を利用して AI プロジェクトのパフォーマンスを向上させること、そして AI 技術を利用して Web3 プロジェクトの向上を図ることです。

これらの 2 つの側面を中心に、Io.net、Gensyn、Ritual などのさまざまなプロジェクトがこの道を探求しています。次に、本稿では AI が Web3 を支援する側面と Web3 が AI を支援する側面の異なるサブトラックの現状と発展状況を分析します。

image

Web3 が AI を支援する#

分散型計算能力#

OpenAI が 2022 年末に ChatGPT を発表して以来、AI の熱潮が巻き起こりました。発表から 5 日でユーザー数は 100 万人に達し、以前の Instagram は約 2 か月半かかって 100 万ダウンロードに達しました。その後、ChatGPT の成長も非常に急速で、2 か月以内に月間アクティブユーザー数は 1 億に達し、2023 年 11 月には週次アクティブユーザー数が 1 億に達しました。ChatGPT の登場に伴い、AI 分野は急速にニッチな分野から注目される業界へと成長しました。

Trendforce の報告によれば、ChatGPT を運用するには 30000 個の NVIDIA A100 GPU が必要であり、将来的には GPT-5 がさらに多くの計算を必要とすることが予想されています。これにより、各 AI 企業間で軍拡競争が始まり、十分な計算能力を確保することが AI 戦争での動力と優位性を確保するために不可欠となり、GPU の不足が発生しています。

AI の台頭以前、GPU の最大の提供者である NVIDIA の顧客は、AWS、Azure、GCP の 3 大クラウドサービスに集中していました。人工知能の興隆に伴い、大手テクノロジー企業の Meta、Oracle、その他のデータプラットフォームや AI スタートアップ企業が新たな買い手として登場し、AI モデルのトレーニングのために GPU を蓄積する戦争に参加しました。Meta や Tesla などの大手テクノロジー企業は、カスタム AI モデルや内部研究の購入量を大幅に増加させました。Anthropic のような基盤モデル企業や Snowflake、Databricks のようなデータプラットフォームも、顧客に AI サービスを提供するためにより多くの GPU を購入しました。

昨年、Semi Analysis が指摘したように、「GPU の富者と GPU の貧者」の中で、少数の企業が 2 万以上の A100/H100 GPU を保有し、チームメンバーはプロジェクトに 100 から 1000 の GPU を使用できます。これらの企業は、クラウドプロバイダーまたは自社で LLM を構築している企業であり、OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral などが含まれます。

しかし、大部分の企業は GPU の貧者に属し、はるかに少ない GPU で苦しみ、エコシステムの発展を推進するのが難しいことに多くの時間と労力を費やしています。この状況はスタートアップ企業に限らず、Hugging Face、Databricks(MosaicML)、Together、さらには Snowflake の A100/H100 の数も 2 万未満です。これらの企業は世界一流の技術者を抱えていますが、GPU の供給量に制約されており、大企業との競争において不利な立場にあります。

この不足は「GPU の貧者」に限らず、2023 年末には AI 分野のリーダーである OpenAI が十分な GPU を確保できず、数週間にわたり有料登録を停止せざるを得なくなり、さらなる GPU 供給を調達する必要がありました。

image

AI の急速な発展に伴う GPU の需要側と供給側の深刻なミスマッチが明らかになり、供給不足の問題が迫っています。

この問題を解決するために、一部の Web3 プロジェクトは Web3 の技術的特性を組み合わせて、分散型の計算能力サービスを提供することを試みています。Akash、Render、Gensyn などがその例です。これらのプロジェクトの共通点は、トークンを通じて多くのユーザーに余剰の GPU 計算能力を提供するように促し、計算能力の供給側となり、AI クライアントに計算能力のサポートを提供することです。

供給側の画像は主に 3 つの側面に分けられます:クラウドサービスプロバイダー、暗号通貨マイナー、企業です。

クラウドサービスプロバイダーには、大手クラウドサービスプロバイダー(AWS、Azure、GCP など)や GPU クラウドサービスプロバイダー(Coreweave、Lambda、Crusoe など)が含まれ、ユーザーは余剰のクラウドサービスプロバイダーの計算能力を再販して収入を得ることができます。暗号マイナーは、Ethereum が PoW から PoS に移行するにつれて、余剰の GPU 計算能力が重要な潜在的供給側となりました。また、Tesla や Meta のような戦略的な理由で大量の GPU を購入した大企業も、余剰の GPU 計算能力を供給側として活用できます。

現在のトラックのプレイヤーは大きく 2 つのカテゴリに分けられます。一つは分散型計算能力を AI の推論に使用するもので、もう一つは分散型計算能力を AI のトレーニングに使用するものです。前者には Render(レンダリングに焦点を当てていますが、AI 計算能力の提供にも使用可能)、Akash、Aethir などが含まれます。後者には io.net(推論とトレーニングの両方をサポート)、Gensyn が含まれ、両者の最大の違いは計算能力の要求が異なることです。

まず、前者の AI 推論プロジェクトについて話しましょう。この種のプロジェクトは、トークンを通じてユーザーの計算能力の提供を促し、計算能力ネットワークサービスを需要側に提供することで、余剰の計算能力の供給と需要をマッチングします。この種のプロジェクトに関する紹介と分析は、私たち Ryze Labs の以前の DePIN の研究報告書に記載されていますので、ぜひご覧ください。

最も重要な点は、トークンのインセンティブメカニズムを通じて、プロジェクトが供給者を引き付け、その後ユーザーを引き付けることで、プロジェクトのコールドスタートとコア運営メカニズムを実現し、さらなる拡張と発展を可能にすることです。このようなサイクルの中で、供給側はより多くの価値のあるトークン報酬を得て、需要側はより安価でコストパフォーマンスの高いサービスを受けることができ、プロジェクトのトークン価値と供給側と需要側の参加者の増加が一致します。トークン価格の上昇に伴い、より多くの参加者や投機家を引き付け、価値の捕獲を形成します。

image

もう一つのカテゴリは、分散型計算能力を AI のトレーニングに使用するもので、Gensyn や io.net(AI トレーニングと AI 推論の両方をサポート)などがあります。実際、この種のプロジェクトの運営ロジックは AI 推論プロジェクトと本質的には大きな違いはなく、依然としてトークンインセンティブを通じて供給側の参加を引き付け、需要側が使用するための計算能力を提供します。

io.net は分散型計算ネットワークとして、現在 GPU の数は 50 万を超え、分散型計算プロジェクトの中で非常に優れたパフォーマンスを示しています。また、現在 Render や Filecoin の計算能力も統合され、エコシステムプロジェクトの発展を進めています。

image

さらに、Gensyn はスマートコントラクトを通じて機械学習のタスクの割り当てと報酬を促進し、AI のトレーニングを実現します。以下の図のように、Gensyn の機械学習トレーニング作業の 1 時間あたりのコストは約 0.4 ドルであり、AWS や GCP の 2 ドルを超えるコストに比べてはるかに低いです。

Gensyn の体系には、4 つの参加主体が含まれます:提出者、実行者、検証者、通報者。

  • 提出者:需要ユーザーはタスクの消費者であり、計算されるタスクを提供し、AI トレーニングタスクに対して支払います。
  • 実行者:実行者はモデルトレーニングのタスクを実行し、タスクが完了したことを証明する証明を生成します。
  • 検証者:非決定的なトレーニングプロセスを決定的な線形計算に関連付け、実行者の証明を期待される閾値と比較します。
  • 通報者:検証者の作業をチェックし、問題を発見した場合に異議を唱えて報酬を得ます。

Gensyn は、世界中の深層学習モデルに向けた超大規模で経済的な計算プロトコルになることを目指しています。
しかし、このトラックを通じて、なぜ大部分のプロジェクトが AI 推論に分散型計算能力を選択し、トレーニングを選ばないのでしょうか?
ここで、AI トレーニングと推論の違いを理解していない方のために、両者の違いを紹介します:

  • AI トレーニング:人工知能を学生に例えるなら、トレーニングは人工知能に大量の知識や例を提供することに似ており、これは私たちが一般にデータと呼ぶものです。人工知能はこれらの知識の例から学習します。学習の本質は大量の情報を理解し記憶する必要があるため、このプロセスには大量の計算能力と時間が必要です。
  • AI 推論:推論とは何か?学んだ知識を利用して問題を解決したり試験を受けたりすることと理解できます。推論の段階では、人工知能は学んだ知識を使って解答しますが、新しい知識を活動することはありません。したがって、推論プロセスで必要な計算量は比較的小さいです。
    両者の計算能力の要求は大きく異なることがわかります。分散型計算能力が AI 推論と AI トレーニングの両方でどのように利用できるかについては、後の課題の章でさらに詳しく分析します。

また、Ritual は分散型ネットワークとモデルの作成者を結びつけ、分散型と安全性を維持することを目指しています。彼らの最初の製品 Infernet は、ブロックチェーン上のスマートコントラクトがオフチェーンで AI モデルにアクセスできるようにし、検証、分散型、プライバシー保護を維持する方法でこのような契約が AI にアクセスできるようにします。

Infernet のコーディネーターは、ネットワーク内のノードの行動を管理し、消費者からの計算リクエストに応じます。ユーザーが infernet を使用する際、推論、証明などの作業はオフチェーンで行われ、出力結果はコーディネーターに戻され、最終的に契約を通じてチェーン上の消費者に渡されます。

分散型計算ネットワークの他にも、Grass のような分散型帯域幅ネットワークがあり、データ伝送の速度と効率を向上させます。全体として、分散型計算ネットワークの出現は、AI の計算能力供給側に新たな可能性を提供し、AI をさらに前進させることを促進しています。

分散型アルゴリズムモデル#

第 2 章で述べたように、AI の 3 つの核心要素は計算能力、アルゴリズム、データです。計算能力が分散型の方法で供給ネットワークを形成できるのであれば、アルゴリズムも同様の考え方でアルゴリズムモデルの供給ネットワークを形成できるのでしょうか?
トラックプロジェクトを分析する前に、まず分散型アルゴリズムモデルの意義を理解しましょう。多くの人が疑問に思うかもしれません。すでに OpenAI があるのに、なぜ分散型のアルゴリズムネットワークが必要なのでしょうか?

本質的に、分散型アルゴリズムネットワークは分散型の AI アルゴリズムサービス市場であり、多くの異なる AI モデルをリンクしています。各 AI モデルは自分の得意な知識とスキルを持っており、ユーザーが質問を提出すると、市場は最も適した AI モデルを選択して回答を提供します。Chat-GPT は OpenAI が開発した AI モデルであり、人間に似たテキストを理解し生成することができます。

簡単に言えば、ChatGPT は異なるタイプの問題を解決するのを助ける非常に優れた学生のようなもので、分散型アルゴリズムネットワークは多くの学生を持つ学校のようなもので、現在この学生の能力は非常に高いですが、長期的に見れば、世界中の学生を募集できる学校には非常に大きな潜在能力があります。

現在、分散型アルゴリズムモデルの分野でも、いくつかのプロジェクトが試行錯誤を行っています。次に、代表的なプロジェクトである Bittensor をケーススタディとして、この細分野の発展状況を理解する手助けをします。

Bittensor では、アルゴリズムモデルの供給側(またはマイナー)が自分の機械学習モデルをネットワークに貢献します。これらのモデルはデータを分析し、洞察を提供することができます。モデル供給者はその貢献に対して暗号通貨トークン TAO を報酬として受け取ります。

問題の回答の質を保証するために、Bittensor は独自のコンセンサスメカニズムを使用して、ネットワークが最良の回答に合意することを確保します。質問が提出されると、複数のモデルマイナーが回答を提供します。その後、ネットワーク内の検証者が作業を開始し、最良の回答を特定し、それをユーザーに送信します。

Bittensor のトークン TAO は、プロセス全体で主に 2 つの役割を果たします。一つは、マイナーがアルゴリズムモデルをネットワークに貢献するようにインセンティブを与えること、もう一つは、ユーザーが質問を提出し、ネットワークにタスクを完了させるためにトークンを費やす必要があることです。

Bittensor は分散型であるため、インターネット接続がある人は誰でもネットワークに参加でき、質問を提出するユーザーとしても、回答を提供するマイナーとしても参加できます。これにより、より多くの人々が強力な人工知能を利用できるようになります。

要するに、Bittensor などのネットワークを例にとると、分散型アルゴリズムモデルの分野は、よりオープンで透明な状況を生み出す可能性があります。このエコシステムでは、人工知能モデルは安全で分散された方法でトレーニング、共有、利用されることができます。また、BasedAI のような分散型アルゴリズムモデルネットワークも同様のことを試みており、特にユーザーとモデルのインタラクションデータのプライバシーを保護するために ZK を使用する点が興味深いです。これについては第 4 の小節でさらに議論します。

分散型アルゴリズムモデルプラットフォームの発展に伴い、小規模企業がトップ AI ツールを使用する際に大規模組織と競争できるようになり、さまざまな業界に潜在的な重大な影響を与えることが期待されます。

分散型データ収集#

AI モデルのトレーニングには、大量のデータ供給が不可欠です。しかし、現在のほとんどの Web2 企業はユーザーのデータを独占しています。例えば、X、Reddit、TikTok、Snapchat、Instagram、YouTube などのプラットフォームは、AI トレーニングのためのデータ収集を禁止しています。これは AI 業界の発展にとって大きな障害となっています。

一方で、一部の Web2 プラットフォームは AI 企業にユーザーのデータを販売していますが、ユーザーに利益を分配していません。例えば、Reddit は Google と 6000 万ドルの契約を結び、Google がその投稿を使用して AI モデルをトレーニングすることを許可しました。これにより、データ収集権が大資本と大データ企業によって独占され、業界が超資本集約型の方向に進むことになりました。

このような現状に対抗するために、一部のプロジェクトは Web3 を通じてトークンインセンティブを利用し、分散型データ収集を実現しています。
PublicAI を例にとると、PublicAI ではユーザーが 2 つの役割で参加できます:

  • 一つは AI データの提供者で、ユーザーは X 上で価値のあるコンテンツを見つけ、@PublicAI 公式に見解を添えて、#AI または #Web3 を分類タグとして使用することで、コンテンツを PublicAI データセンターに送信し、データ収集を実現します。
  • もう一つはデータ検証者で、ユーザーは PublicAI データセンターにログインし、AI トレーニングのために最も価値のあるデータを選択して投票します。
    報酬として、ユーザーはこれらの貢献を通じてトークンインセンティブを得ることができ、データの提供者と人工知能産業の開発者との間のウィンウィンの関係を促進します。

PublicAI のような AI トレーニングのためにデータを収集する専用プロジェクトの他にも、Ocean のようにデータのトークン化を通じてユーザーデータを収集し AI にサービスを提供するプロジェクトや、Hivemapper がユーザーの車載カメラを通じて地図データを収集するプロジェクト、Dimo がユーザーの車両データを収集するプロジェクト、WiHi が天候データを収集するプロジェクトなど、分散型データ収集プロジェクトは AI トレーニングの供給側としても潜在的な役割を果たしています。したがって、広義には Web3 が AI を支援する枠組みにも含めることができます。

ZK が AI におけるユーザープライバシーを保護#

ブロックチェーン技術がもたらす利点の一つは、分散型の利点だけでなく、もう一つはゼロ知識証明です。ゼロ知識技術を通じて、プライバシーを保護しながら情報の検証を実現できます。

従来の機械学習では、データは通常集中して保存され処理されるため、データプライバシーの漏洩リスクが生じる可能性があります。一方で、データプライバシーを保護する方法(データ暗号化やデータの去識別化など)は、機械学習モデルの正確性や性能を制限する可能性があります。

ゼロ知識証明技術は、プライバシー保護とデータ共有の間の対立を解決するのに役立ちます。
ZKML(Zero-Knowledge Machine Learning)は、ゼロ知識証明技術を使用して、元のデータを漏洩させることなく機械学習モデルのトレーニングと推論を行うことを可能にします。ゼロ知識証明により、データの特徴とモデルの結果が正しいことを証明でき、実際のデータ内容を明らかにすることなく行うことができます。

ZKML の核心的な目標は、プライバシー保護とデータ共有のバランスを実現することです。これは、医療健康データ分析、金融データ分析、組織間の協力など、さまざまなシーンに応用できます。ZKML を使用することで、個人は敏感なデータのプライバシーを保護しながら、他者とデータを共有してより広範な洞察や協力の機会を得ることができ、データプライバシーの漏洩リスクを心配する必要がありません。
現在、この分野はまだ初期段階にあり、ほとんどのプロジェクトは探索中です。例えば、BasedAI は、FHE と LLM をシームレスに統合する分散型のアプローチを提案し、データの機密性を保持します。ゼロ知識大型言語モデル(ZK-LLM)を利用して、プライバシーを分散型ネットワークインフラストラクチャの核心に埋め込み、ユーザーデータがネットワーク全体で運用される過程でプライベートなままであることを保証します。

ここで、全同態暗号(FHE)とは何かを簡単に説明します。全同態暗号は、暗号化された状態でデータを計算できる暗号技術であり、復号化することなく行うことができます。これは、FHE で暗号化されたデータ上で実行されるさまざまな数学的演算(加算、乗算など)が、データの暗号化状態を保持したままで行われ、元の未暗号化データ上で実行された場合と同じ結果を得ることができることを意味します。これにより、ユーザーデータのプライバシーが保護されます。

さらに、上記の 4 つのカテゴリに加えて、Web3 が AI を支援する側面では、Cortex のような AI プログラムをチェーン上で実行することをサポートするブロックチェーンプロジェクトもあります。現在、従来のブロックチェーン上で機械学習プログラムを実行することは、仮想マシンが複雑でない機械学習モデルを実行する際に非常に非効率的であるという課題に直面しています。したがって、ほとんどの人は、ブロックチェーン上で人工知能を実行することは不可能だと考えています。しかし、Cortex 仮想マシン(CVM)は GPU を利用して、チェーン上で AI プログラムを実行し、EVM と互換性があります。言い換えれば、Cortex チェーンはすべての Ethereum Dapp を実行でき、その上で AI 機械学習をこれらの Dapp に統合することができます。これにより、分散型、不可変、透明な方法で機械学習モデルを実行することが可能になり、ネットワークの合意が AI 推論の各ステップを検証します。

AI が Web3 を支援する#

AI と Web3 の衝突において、Web3 が AI を支援するだけでなく、AI が Web3 業界を支援することも非常に注目に値します。人工知能の核心的な貢献は生産性の向上にあり、したがって、AI によるスマートコントラクトの監査、データ分析と予測、パーソナライズサービス、安全性とプライバシー保護などの分野で多くの試みが行われています。

データ分析と予測#

現在、多くの Web3 プロジェクトが既存の AI サービス(例えば ChatGPT)を統合するか、自社開発を行い、Web3 ユーザーにデータ分析と予測のサービスを提供しています。これには、AI アルゴリズムを通じて投資戦略を提供したり、オンチェーン分析 AI ツール、価格と市場予測を行ったりすることが含まれます。

例えば、Pond は AI グラフアルゴリズムを使用して、将来の価値のあるアルファトークンを予測し、ユーザーや機関に投資支援の提案を提供します。また、BullBear AI はユーザーの過去のデータや価格線の履歴、市場の動向を基にトレーニングを行い、価格動向を予測するために最も正確な情報を提供し、ユーザーが利益を得るのを支援します。

さらに、Numerai のような投資コンペティションプラットフォームでは、参加者が AI や大規模言語モデルを使用して株式市場を予測し、プラットフォームが提供する無料の高品質データを使用してモデルをトレーニングし、毎日予測を提出します。Numerai は、これらの予測が次の 1 か月間にどのように機能するかを計算し、参加者はモデルのパフォーマンスに基づいて NMR を賭けることができます。

また、Arkham のようなオンチェーンデータ分析プラットフォームも AI を組み合わせてサービスを提供しています。Arkham は、ブロックチェーンアドレスを取引所、ファンド、クジラなどの実体と関連付け、ユーザーにこれらの実体の重要なデータと分析を提供し、意思決定の優位性をもたらします。Arkham の AI との統合部分は、Arkham Ultra がアルゴリズムを使用してアドレスを現実世界の実体とマッチングさせることにあり、Palantir や OpenAI の創設者の支援を受けて 3 年かけて開発されました。

パーソナライズサービス#

Web2 のプロジェクトでは、AI は検索や推薦の分野で多くのアプリケーションシーンがあり、ユーザーのパーソナライズされたニーズに応えています。Web3 プロジェクトでも同様で、多くのプロジェクトが AI を統合することでユーザーの使用体験を最適化しています。

例えば、データ分析プラットフォーム Dune は最近、Wand ツールを新たに導入し、大規模言語モデルを利用して SQL クエリを作成することを可能にしました。Wand Create 機能を使用すると、ユーザーは自然言語の質問に基づいて自動的に SQL クエリを生成できるため、SQL を理解していないユーザーでも非常に便利に検索できます。

さらに、Web3 のコンテンツプラットフォームも ChatGPT を統合してコンテンツを要約することを始めています。例えば、Web3 メディアプラットフォーム Followin は、特定の分野の見解や最新の状況を要約するために ChatGPT を統合しています。Web3 百科事典プラットフォーム IQ.wiki は、ブロックチェーン技術や暗号通貨に関する客観的で高品質な知識の主要な情報源となることを目指しており、ユーザーに信頼できる情報を提供するために GPT-4 を統合しています。また、LLM に基づく検索エンジン Kaito は、Web3 の検索プラットフォームとなり、Web3 の情報取得方法を変えることを目指しています。

創作の面でも、NFPrompt のようにユーザーの創作コストを削減するプロジェクトがあります。NFPrompt は、ユーザーが AI を使用して NFT をより簡単に生成できるようにし、創作コストを削減し、創作において多くのパーソナライズサービスを提供しています。

AI によるスマートコントラクトの監査#

Web3 分野では、スマートコントラクトの監査も非常に重要な作業であり、AI を使用してスマートコントラクトコードの監査を実現することで、より効率的かつ正確にコード内の脆弱性を特定できます。

Vitalik が以前に述べたように、暗号通貨分野が直面する最大の課題の一つは、コード内のエラーです。そして、期待される可能性の一つは、人工知能(AI)が特定の属性を満たすコードセットを証明するために形式検証ツールを使用することを大幅に簡素化できることです。これが実現できれば、無エラーの SEK EVM(例えば Ethereum 仮想マシン)を持つ可能性があります。エラーの数が減るほど、空間の安全性が増し、AI はこれを実現する上で非常に役立ちます。

例えば、0x0.ai プロジェクトは、先進的なアルゴリズムを使用してスマートコントラクトを分析し、詐欺やその他のセキュリティリスクを引き起こす可能性のある脆弱性や問題を特定するツールである AI スマートコントラクト監査ツールを提供しています。監査者は機械学習技術を使用してコード内のパターンや異常を特定し、潜在的な問題をマークしてさらなるレビューのために提出します。

上記の 3 つのカテゴリに加えて、AI を使用して Web3 分野を支援するネイティブなケースもいくつかあります。例えば、PAAL はユーザーがパーソナライズされた AI ボットを作成できるようにし、Telegram や Discord に展開して Web3 ユーザーにサービスを提供します。AI 駆動のマルチチェーン DEX アグリゲーター Hera は、AI を利用して最も広範なトークンと任意のトークンペア間の最適な取引経路を提供します。全体として、AI は Web3 を支援するためのツールレベルでの支援を提供しています。

AI+Web3 プロジェクトの限界と課題の現状#

分散型計算能力における現実的な障害#

現在の Web3 が AI を支援するプロジェクトの中で、多くは分散型計算能力に注力しており、トークンインセンティブを通じて世界中のユーザーが計算能力の供給側になることを促進するという非常に興味深い革新ですが、一方で解決すべき現実的な問題もいくつかあります。

中央集権的な計算サービスプロバイダーと比較して、分散型計算製品は通常、世界中に分散したノードと参加者に計算リソースを提供することに依存しています。これらのノード間のネットワーク接続には遅延や不安定性が存在する可能性があるため、性能と安定性は中央集権的な計算製品よりも劣る可能性があります。

さらに、分散型計算製品の可用性は、供給と需要のマッチングの程度に影響されます。十分な供給者がいない場合や需要が過剰な場合、リソース不足やユーザーのニーズを満たせない可能性があります。

最後に、中央集権的な計算製品と比較して、分散型計算製品は通常、より多くの技術的詳細と複雑さを伴います。ユーザーは分散型ネットワーク、スマートコントラクト、暗号通貨の支払いなどの知識を理解し、処理する必要があるため、ユーザーの理解と使用のコストが高くなります。

多くの分散型計算プロジェクトの関係者と深く議論した結果、現在の分散型計算は基本的に AI 推論に限られており、AI トレーニングには適用できないことがわかりました。

次に、4 つの小さな質問を通じて、背後にある理由を理解する手助けをします:

  1. なぜ大部分の分散型計算プロジェクトは AI 推論を選択し、AI トレーニングを選ばないのか?
  2. NVIDIA の強みはどこにあるのか?分散型計算トレーニングが難しい理由は何か?
  3. 分散型計算(Render、Akash、io.net など)の最終的な姿はどのようなものか?
  4. 分散型アルゴリズム(Bittensor)の最終的な姿はどのようなものか?

次に、これらの質問を一つずつ解明していきましょう:
1)このトラックを通じて、大部分の分散型計算プロジェクトが AI 推論を選択し、トレーニングを選ばない理由は、計算能力と帯域幅の要求が異なることにあります。

理解を助けるために、AI を学生に例えてみましょう:

AI トレーニング:人工知能を学生に例えるなら、トレーニングは人工知能に大量の知識や例を提供することに似ており、これは私たちが一般にデータと呼ぶものです。人工知能はこれらの知識の例から学習します。学習の本質は大量の情報を理解し記憶する必要があるため、このプロセスには大量の計算能力と時間が必要です。

AI 推論:推論とは何か?学んだ知識を利用して問題を解決したり試験を受けたりすることと理解できます。推論の段階では、人工知能は学んだ知識を使って解答しますが、新しい知識を活動することはありません。したがって、推論プロセスで必要な計算量は比較的小さいです。

両者の難易度の違いは、実際には大規模 AI モデルのトレーニングには膨大なデータ量が必要であり、データの高速通信に必要な帯域幅の要求が非常に高いため、現在分散型計算がトレーニングに適用されるのは非常に難しいということです。一方、推論はデータと帯域幅の要求がはるかに少なく、実現可能性が高いです。

大規模モデルにとって最も重要なのは安定性です。トレーニングが中断されると、再トレーニングが必要になり、埋没コストが非常に高くなります。一方で、計算要求が比較的低いニーズは実現可能です。例えば、前述の AI 推論や特定のシーンの中小型モデルのトレーニングは実現可能であり、分散型計算ネットワークには相対的に大きなノードサービスプロバイダーが存在し、これらの相対的に大きな計算要求にサービスを提供する可能性があります。また、レンダリングのようなエッジコンピューティングのシーンも比較的実現しやすいです。

2)では、データと帯域幅のボトルネックはどこにあるのでしょうか?なぜ分散型トレーニングが実現しにくいのでしょうか?

これは、大規模モデルのトレーニングにおける 2 つの重要な要素、すなわち単一カード計算能力とマルチカード並列処理に関係しています。
単一カード計算能力:現在、大規模モデルのトレーニングが必要なすべての中心を超算センターと呼びます。理解を助けるために、人体を比喩として使用しましょう。超算センターは人体の組織であり、基層単位である GPU は細胞です。単一の細胞(GPU)の計算能力が強ければ、全体の計算能力(単一の細胞 × 数量)も強くなる可能性があります。

マルチカード並列処理:大規模モデルのトレーニングは、数百億 GB に及ぶことがあり、大規模モデルのトレーニングを行う超算センターには、少なくとも数万の A100 が必要です。したがって、これらの数万のカードを動員してトレーニングを行う必要がありますが、大規模モデルのトレーニングは単純な直列処理ではなく、異なる部分のモデルを異なる GPU でトレーニングする必要があります。トレーニング A の際には B の結果が必要になることがあるため、マルチカード並列処理が必要です。

なぜ NVIDIA がこれほど優れているのか、そしてその市価が急騰しているのか、AMD や国内の Huawei、Horizon が追いつけない理由は、主に 2 つの側面にあります:CUDA ソフトウェア環境と NVLink マルチカード通信です。

一方で、ハードウェアに適合するソフトウェアエコシステムが存在するかどうかは非常に重要です。NVIDIA の CUDA システムのように、新しいシステムを構築することは非常に難しく、新しい言語を構築するようなもので、置き換えコストが非常に高いです。

もう一方は、マルチカード通信です。本質的に、マルチカード間の伝送は情報の入力と出力であり、どのように並列化し、どのように伝送するかが問題です。NVLink が存在するため、NVIDIA と AMD のカードを接続することはできません。また、NVLink は GPU 間の物理的距離を制限し、GPU が同じ超算センター内にある必要があります。これにより、分散型計算が世界中に分散している場合、実現が難しくなります。

最初のポイントは、なぜ AMD や国内の Huawei、Horizon が追いつけないのかを説明します。2 つ目のポイントは、なぜ分散型トレーニングが実現しにくいのかを説明します。

3)分散型計算の最終的な姿はどのようなものになるのでしょうか?
分散型計算は現在、大規模モデルのトレーニングを行うことが難しいですが、その核心は大規模モデルのトレーニングが最も重視するのは安定性であり、トレーニングが中断されると再トレーニングが必要になり、埋没コストが非常に高くなることです。また、マルチカード並列処理の要求も高く、帯域幅は物理的距離に制約されます。NVIDIA は NVLink を通じてマルチカード通信を実現していますが、超算センター内で NVLink は GPU 間の物理的距離を制限します。したがって、分散型の計算が世界中に分散している場合、計算クラスターを形成して大規模モデルのトレーニングを行うことが難しくなります。

しかし一方で、計算要求が比較的低いニーズは実現可能です。例えば、AI 推論や特定のシーンの中小型モデルのトレーニングは実現可能であり、分散型計算ネットワークには相対的に大きなノードサービスプロバイダーが存在し、これらの相対的に大きな計算要求にサービスを提供する可能性があります。また、レンダリングのようなエッジコンピューティングのシーンも比較的実現しやすいです。

4)分散型アルゴリズムモデルの最終的な姿はどのようなものになるのでしょうか?
分散型アルゴリズムモデルの最終的な姿は、未来の AI の最終的な姿に依存します。私は、未来の AI 戦争は 1〜2 のクローズドソースモデルの巨頭(ChatGPT など)と、百花繚乱のモデルが共存する可能性があると考えています。このような背景の中で、アプリケーション層の製品は大モデルに依存する必要はなく、複数の大モデルと協力することができます。このような背景から見ると、Bittensor のこのモデルは非常に大きな潜在能力を持っています。

AI+Web3 の結合は粗雑であり、1+1>2 を実現していない#

現在、Web3 と AI の結合プロジェクト、特に AI が Web3 を支援するプロジェクトの大多数は、依然として AI を表面的に使用しており、実際には AI と暗号通貨の深い結合を実現していません。この表面的な応用は、主に以下の 2 つの側面に現れています:
まず、AI を利用してデータ分析や予測を行ったり、推薦や検索シーンで AI を使用したり、コード監査を行ったりすることは、Web2 プロジェクトや AI との結合と大きな違いはありません。これらのプロジェクトは単に AI を利用して効率を向上させ、分析を行っているだけであり、AI と暗号通貨の間の本質的な融合や革新的な解決策を示していません。
次に、多くの Web3 チームは AI との結合をマーケティングの観点から純粋に AI の概念を利用しています。彼らは非常に限られた分野で AI 技術を適用し、AI のトレンドを宣伝し、プロジェクトと AI が非常に密接であるかのような偽の印象を作り出しています。しかし、真の革新の面では、これらのプロジェクトにはまだ大きな空白があります。
現在の Web3 と AI プロジェクトにはこれらの限界が存在しますが、これは単に発展の初期段階であることを認識する必要があります。将来的には、より深い研究と革新が期待され、AI と暗号通貨の間のより緊密な結合を実現し、金融、分散型自治組織、予測市場、NFT などの分野でより本質的で意味のある解決策を生み出すことができるでしょう。

トークン経済学が AI プロジェクトの物語の緩衝剤となる#

最初に述べた AI プロジェクトのビジネスモデルの難題のように、ますます多くの大モデルが徐々にオープンソース化されているため、現在の多くの AI+Web3 プロジェクトは、純粋な AI プロジェクトが Web2 で発展し、資金調達するのが難しいため、Web3 の物語やトークン経済学を重ねてユーザーの参加を促進しています。

しかし、重要なのは、トークン経済学の統合が AI プロジェクトの実際のニーズを解決するのに本当に役立つのか、それとも単なる物語や短期的な価値の追求なのか、という点には疑問符がつきます。

現在、大部分の AI+Web3 プロジェクトはまだ実用的な段階に達しておらず、より実質的なアイデアを持つチームが、トークンを AI プロジェクトの宣伝材料として使用するだけでなく、実際のニーズシーンを満たすことができることを期待しています。

まとめ#

現在、AI+Web3 プロジェクトには多くの事例やアプリケーションが登場しています。まず、AI 技術は Web3 により効率的でインテリジェントなアプリケーションシーンを提供できます。AI のデータ分析と予測能力を通じて、Web3 のユーザーは投資決定などのシーンでより良いツールを持つことができます。また、AI はスマートコントラクトコードを監査し、スマートコントラクトの実行プロセスを最適化し、ブロックチェーンの性能と効率を向上させることができます。同時に、AI 技術は分散型アプリケーションに対してより正確でインテリジェントな推薦やパーソナライズサービスを提供し、ユーザー体験を向上させます。

一方で、Web3 の分散型とプログラム可能性の特徴は、AI 技術の発展に新たな機会を提供しています。トークンインセンティブを通じて、分散型計算プロジェクトは AI の計算能力供給不足の課題に新たな解決策を提供し、Web3 のスマートコントラクトや分散ストレージメカニズムは AI アルゴリズムの共有とトレーニングにより広範な空間とリソースを提供します。Web3 のユーザー自治と信頼メカニズムは、AI の発展に新たな可能性をもたらし、ユーザーはデータ共有やトレーニングに自主的に参加することで、データの多様性と質を向上させ、AI モデルの性能と正確性をさらに改善することができます。

現在の AI+Web3 の交差プロジェクトはまだ初期段階にあり、多くの困難に直面していますが、多くの利点ももたらしています。例えば、分散型計算製品にはいくつかの欠点がありますが、中央集権的な機関への依存を減らし、より大きな透明性と監査可能性を提供し、より広範な参加と革新を実現することができます。特定の使用ケースやユーザーのニーズに対して、分散型計算製品は価値のある選択肢となる可能性があります。データ収集の面でも、分散型データ収集プロジェクトは、単一のデータソースへの依存を減らし、より広範なデータカバレッジを提供し、データの多様性と包摂性を促進するなどの利点をもたらします。実践の中で、これらの利点と欠点を天秤にかけ、課題を克服するための適切な管理と技術的手段を講じる必要があります。これにより、分散型データ収集プロジェクトが AI の発展に対して積極的な影響を与えることができるようになります。

総じて、AI+Web3 の融合は、未来の技術革新と経済発展に無限の可能性を提供します。AI のインテリジェントな分析と意思決定能力を Web3 の分散型とユーザー自治と組み合わせることで、未来にはよりインテリジェントで、よりオープンで、より公正な経済や社会システムを構築できると信じています。

参考資料#

https://docs.bewater.xyz/zh/aixcrypto/
https://medium.com/@ModulusLabs
https://docs.bewater.xyz/zh/aixcrypto/chapter2.html#_3-4-4-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%8A%80%E6%9C%AF%E5%BC%80%E6%BA%90%E7%9A%84%E9%97%AE%E9%A2%98
https://docs.bewater.xyz/zh/aixcrypto/chapter4.html#_1-2-1-%E6%95%B0%E6%8D%AE
https://mirror.xyz/lukewasm.eth/LxhWgl-vaAoM3s_i9nCP8AxlfcLvTKuhXayBoEr00mA
https://www.galaxy.com/insights/research/understanding-intersection-crypto-ai/
https://www.theblockbeats.info/news/48410?search=1
https://www.theblockbeats.info/news/48758?search=1
https://www.theblockbeats.info/news/49284?search=1
https://www.theblockbeats.info/news/50419?search=1
https://www.theblockbeats.info/news/50464?search=1
https://www.theblockbeats.info/news/50814?search=1
https://www.theblockbeats.info/news/51165?search=1
https://www.theblockbeats.info/news/51099?search=1
https://www.techflowpost.com/article/detail_16418.html
https://blog.invgate.com/chatgpt-statistics
https://www.windowscentral.com/hardware/computers-desktops/chatgpt-may-need-30000-nvidia-gpus-should-pc-gamers-be-worried
https://www.trendforce.com/presscenter/news/20230301-11584.html
https://www.linkedin.com/pulse/great-gpu-shortage-richpoor-chris-zeoli-5cs5c/
https://www.semianalysis.com/p/google-gemini-eats-the-world-gemini
https://news.marsbit.co/20230613141801035350.html
https://medium.com/@taofinney/bittensor-tao-a-beginners-guide-eb9ee8e0d1a4
https://www.hk01.com/%E7%B6%B2%E7%A7%91%E3%80%8C3.0%E3%80%8D/1006289/iosg-%E5%BE%9E-ai-x-web3-%E6%8A%80%E8%A1%93%E5%A0%86%E6%A3%A8%E5%BB%BA-infra-%E6%96%B0%E6%95%B8%E4%BA%8B
https://arxiv.org/html/2403.01008v1

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。