AI+Web3融合トレンド:コンピューティングパワーデータの分散化が焦点

AI+Web3: タワーとプラザ

TL; 博士

  1. AIコンセプトのWeb3プロジェクトが一二級市場で資金を引き寄せる標的となる。

  2. Web3におけるAI業界の機会は、分散型インセンティブを使用してロングテールの潜在供給を調整し、データ、ストレージ、計算を横断することに現れています。同時に、オープンソースモデルとAIエージェントの分散型市場を構築することです。

  3. AIのWeb3業界における主な活躍の場は、オンチェーン金融(暗号支払い、取引、データ分析)および開発支援です。

  4. AI+Web3の効用は両者の相補性に現れます: Web3はAIの集中化に対抗することが期待され、AIはWeb3の壁を破るのに役立つと期待されています。

! AI+Web3: タワー&プラザ

はじめに

ここ2年、AIの発展は加速ボタンが押されたかのようで、Chatgptによって引き起こされたバタフライ効果は、生成的人工知能の新しい世界を開くだけでなく、対岸のWeb3でも潮流を巻き起こしています。

AIの概念の影響を受けて、相対的に減速している暗号市場の資金調達が明らかに活性化しています。2024年上半期だけで、64のWeb3+AIプロジェクトが資金調達を完了し、人工知能に基づくオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。

二級市場はさらに繁栄しており、暗号統合サイトのデータによると、わずか1年余りの間にAIトラックの総市場価値は485億ドルに達し、24時間の取引量は860億ドルに近づいています。主流のAI技術の進展による好影響は明らかで、OpenAIのSoraテキストからビデオへのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AI効果は、暗号通貨の資金調達セクターの一つであるMemeにも波及しています。初のAIエージェントコンセプトのMemeCoinであるGOATは急速に人気を集め、14億ドルの評価額を獲得し、AI Memeブームを成功裏に巻き起こしました。

AI+Web3に関する研究や話題も同様に盛り上がっており、AI+DepinからAI Memecoin、現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しい物語の切り替えの速度についていけていない。

AI+Web3、この熱気に満ちた資金とトレンド、未来の幻想の用語の組み合わせは、資本によって結びつけられたお見合いのように見られることが避けられず、私たちはこの華やかなローブの下で、一体どちらが投機者の舞台なのか、あるいは黎明の爆発の前夜なのかを判断するのが難しいようです。

この質問に答えるために、両者にとって重要な思考は、相手がいるとより良くなるのか?相手のパターンから利益を得ることができるのか?この記事では、先人の肩に立ってこのパターンを考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新たな活力をもたらすことができるのか?

パート1 AIスタック下のWeb3にはどのような機会があるか?

この話題を展開する前に、私たちはAI大規模モデルの技術スタックを理解する必要があります:

より一般的な言葉で全体のプロセスを説明すると、「大モデル」は人間の脳のようなもので、初期段階ではこの脳はちょうど人間の世界に生まれたばかりの赤ちゃんのもので、周囲の膨大な情報を観察し取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、トレーニング前に外部の大規模な無標識情報は「前処理」によってコンピュータが理解できる形式に変換される必要があります。

データを入力すると、AIは「トレーニング」を通じて理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメーターは、赤ちゃんが学ぶ過程で調整される言語能力のようなものです。学習内容が専門分化し始めたり、人とコミュニケーションをとってフィードバックを得て修正されたりすると、大モデルの「ファインチューニング」段階に入ります。

子供は徐々に成長し、話すことを学んだ後、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキスト入力に対して予測と分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を描写し、さまざまな問題を解決します。これはAI大モデルがトレーニングを完了し、使用に投入された後、推論段階でさまざまな特定のタスク、例えば画像分類や音声認識などに適用されることにも似ています。

AIエージェントは、大規模モデルの次の形態に近づいています------独立してタスクを実行し、複雑な目標を追求することができるだけでなく、思考能力を備え、記憶や計画を行い、ツールを使って世界と相互作用することができます。

現在、AIの各スタックにおける課題に対して、Web3は現在、AIモデルプロセスの各段階をカバーする多層的で相互接続されたエコシステムを初めて形成しました。

! AI+Web3:タワー&スクエア

1. 基本レイヤー: Airbnb (計算能力とデータ)

ハッシュレート

現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。

一例として、MetaのLLAMA3は16000個のNVIDIA製H100GPU(を必要とします。これは人工知能と高性能計算のワークロードのために設計された最上級のグラフィックス処理ユニットです。)トレーニングには30日かかります。後者の80GB版の単価は30,000ドルから40,000ドルの間で、4億から7億ドルの計算ハードウェア投資が必要です(GPU+ネットワークチップ)、その上、毎月のトレーニングには16億キロワット時を消費し、エネルギー支出は毎月約2000万ドルになります。

AIの計算力の解放は、Web3が最初にAIと交差した分野であり------DePin(の分散型物理インフラネットワーク)。現在、あるデータサイトには1400以上のプロジェクトが掲載されており、その中でGPU計算力共有を代表するプロジェクトにはio.net、Aethir、Akash、Render Networkなどがあります。

その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が許可なしに分散型の方法で計算能力を提供できることを許可することにあります。UberやAirbnbのようなバイヤーと売り手のオンラインマーケットを通じて、未活用のGPUリソースの利用率を向上させ、エンドユーザーはその結果、より低コストで効率的な計算リソースを得ることができます。同時に、ステーキングメカニズムは、品質管理メカニズムの違反やネットワークの中断が発生した場合に、リソース提供者に相応の罰則が科されることを保証します。

その特徴は:

  • 余ったGPUリソースを集める:供給側は主に第三者の独立した中小型データセンターや暗号マイニングファームなどの運営者の余剰計算力リソースで、コンセンサスメカニズムはPoSのマイニングハードウェア、例えばFileCoinやETHマイニング機器です。現在、exolabのようにMacBook、iPhone、iPadなどのローカルデバイスを利用して大規模モデル推論の計算ネットワークを構築することを目指すプロジェクトもあります。

  • AI計算力のロングテール市場に直面して:

a.「技術面から見ると」分散型コンピューティング市場は推論ステップにより適しています。トレーニングは超大規模クラスターのGPUによるデータ処理能力により依存度が高く、推論はGPUの計算性能に対する依存度が相対的に低いため、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに特化しています。

b.「需要側の観点から見ると」中小の計算能力需要者は、自らの大規模モデルを単独で訓練することはなく、むしろごく少数の主要な大規模モデルを中心に最適化や微調整を選択します。このようなシーンは分散型の未使用計算リソースに自然に適しています。

  • 分散型所有権: ブロックチェーンの技術的意義は、リソースの所有者が常にリソースに対するコントロールを保持し、需要に応じて柔軟に調整し、同時に利益を得ることができることです。

データ

データはAIの基盤です。データがなければ、計算は浮遊する藻のように無意味であり、データとモデルの関係は「Garbage in, Garbage out」という俗語のようです。データの量と入力の質が最終的なモデルの出力の質を決定します。現在のAIモデルのトレーニングにおいて、データはモデルの言語能力、理解能力、さらには価値観や人間的な表現を決定します。現在、AIのデータ需要の困難は主に以下の4つの側面に焦点を当てています:

  • データ渇望: AIモデルのトレーニングは大量のデータ入力に依存しています。公開資料によると、OpenAIはGPT-4のトレーニングにおいてパラメータ数が兆のレベルに達しています。

  • データ品質: AIと各業界の結びつきが進む中で、データの適時性、データの多様性、垂直データの専門性、ソーシャルメディアの感情などの新興データソースの取り入れが、その品質に新たな要求を提起しています。

  • プライバシーとコンプライアンスの問題: 現在、各国や企業は高品質なデータセットの重要性に徐々に気づき、データセットのクローリングに制限をかけています。

  • データ処理コストが高い: データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使用されています。

現在、web3のソリューションは以下の4つの側面に現れています:

  1. データ収集: 無料で提供される実世界のデータの収集が急速に枯渇しており、AI企業によるデータへの支出は年々増加しています。しかし同時に、この支出はデータの本当の貢献者には還元されておらず、プラットフォームはデータがもたらす価値創造を全て享受しています。例えば、あるプラットフォームはAI企業とのデータライセンス契約を通じて、合計2.03億ドルの収入を実現しました。

真に貢献するユーザーがデータによる価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。

  • Grassは、分散型のデータ層およびネットワークであり、ユーザーはGrassノードを運営することで、未使用の帯域幅や中継トラフィックを提供し、インターネット全体のリアルタイムデータをキャッチし、トークン報酬を得ることができます;

  • Vanaは独自のデータ流動性プール(DLP)の概念を導入しました。ユーザーは自分のプライベートデータ(、例えば購買履歴、ブラウジング習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます。

  • PublicAIでは、ユーザーはX上で#AI或#Web3を分類ラベルとして使用し、@PublicAIを付けることでデータ収集を実現できます。

  1. データ前処理: AIのデータ処理プロセスにおいて、収集されたデータは通常ノイズが多く、エラーが含まれているため、モデルをトレーニングする前にデータをクリーンアップし、利用可能な形式に変換する必要があります。この段階では、標準化、フィルタリング、欠損値の処理などの繰り返し作業が含まれます。この段階はAI業界で数少ない手作業のステップであり、データアノテーション専門家という職業が生まれました。モデルがデータの質に対する要求を高めるにつれて、データアノテーション専門家のハードルも上がっています。このタスクは、Web3の分散型インセンティブメカニズムに自然に適しています。
  • 現在、GrassとOpenLayerはデータアノテーションという重要なプロセスへの参加を検討しています。

  • Synesisは「Train2earn」という概念を提唱し、データの質を強調しています。ユーザーは、ラベル付きデータ、注釈、または他の形式の入力を提供することで報酬を得ることができます。

  • データラベリングプロジェクトSapienは、ラベリングタスクをゲーム化し、ユーザーがポイントをステーキングしてさらに多くのポイントを獲得できるようにします。

  1. データプライバシーとセキュリティ: 明確にする必要があるのは、データプライバシーとセキュリティは2つの異なる概念であるということです。データプライバシーは機密データの取り扱いに関するものであり、データセキュリティはデータ情報を無許可のアクセス、破壊、盗難から守ります。したがって、Web3プライバシー技術の利点と潜在的な応用シーンは2つの側面に現れます: (1)機密データのトレーニング; (2)データ協力: 複数のデータ所有者がその原データを共有することなくAIトレーニングに共同で参加できます。

現在のWeb3で一般的なプライバシー技術には次のものが含まれます:

  • Trusted Execution Environment (TEE) (Super Protocol など)

  • BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。

  • ゼロ知識技術(zk)、例えばReclaim ProtocolはzkTLS技術を使用して、HTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから安全に活動、評判、アイデンティティデータをインポートできるようにし、機密情報をさらけ出すことなく行います。

ただし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つのジレンマは計算コストが非常に高いことであり、いくつかの例は次の通りです:

  • zkMLフレームワークEZKLは、約80分で1M-nanoGPTモデルの証明を生成する必要があります。

  • Modulus Labsのデータによると、zkMLのコストは純粋な計算の1000倍以上です。

  1. データストレージ:データが得られた後、チェーン上にデータを保存する場所と、そのデータを使用して生成されたLLMが必要です。データの可用性(DA)を核心問題とし、イーサリアムのDankshardingアップグレード前は、そのスループットは0.08MBでした。一方、AIモデルのトレーニングとリアルタイム推論は通常、毎秒50から100GBのデータスループットを必要とします。この規模の差は、既存のチェーン上の解決策が直面する問題です。
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 6
  • 共有
コメント
0/400
TokenomicsTinfoilHatvip
· 7時間前
巻き込まれて終わりが見えない
原文表示返信0
DataBartendervip
· 7時間前
また大饼を描きに来ました。
原文表示返信0
0xSherlockvip
· 7時間前
麻了…みんなコンセプトを炒めている
原文表示返信0
PhantomMinervip
· 7時間前
また夢を描きに来たのか 誰が受け取るんだ
原文表示返信0
LiquidatedTwicevip
· 7時間前
これはテンプレートの煽りじゃないのか?
原文表示返信0
MetaverseMigrantvip
· 8時間前
また一波の融資の罠が来た
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)