Upshot の Zhenyang 氏、Giza の Fran 氏、Neuronets の Ashely 氏、Valence の Matt 氏、Pond の Dylan 氏からの貴重なご意見とフィードバックに感謝します。
この研究では、AI 分野の開発者に関係のある重要な領域を解明し、Web3 と AI 技術の融合によって生まれる潜在的な機会を探ることを目指しています。
AI 中心の分散型アプリケーション (DApps) の現在の進歩では、いくつかの便利なツールと概念が注目されています。
Web3 と AI の融合は、開発者が暗号分野に合わせた AI インフラストラクチャを徹底的に調査する中で、暗号分野で大きな関心を集めています。その目的は、スマート コントラクトに高度なインテリジェンス機能を組み込むことであり、そのためには、データ処理、モデルの精度、計算ニーズ、展開の複雑さ、ブロックチェーンの統合に細心の注意を払う必要があります。
Web3 の先駆者によって考案された初期のソリューションには以下が含まれます。
インフラストラクチャが急成長しているにもかかわらず、DApps における実際の AI アプリケーションは依然として限られています。一般的なチュートリアルは表面的な内容にとどまっており、多くの場合、フロントエンド環境内での基本的な OpenAI API のやり取りを説明しているだけで、ブロックチェーンの分散化と検証可能性という独自の機能を十分に活用していません。
状況が変化するにつれ、今後数か月で多くの暗号ネイティブ AI インフラストラクチャがテストネットから完全な運用状態に移行し、大きな進展が見込まれます。
このダイナミックなコンテキストにおいて、私たちの調査では、暗号ネイティブ AI インフラストラクチャで利用可能なツールの武器庫を詳しく調べ、暗号の領域における画期的な GPT-3.5 の瞬間に似た差し迫った進歩に開発者を準備します。
GPT-4-vision、GPT-4-turbo、GPT-4o などの OpenAI の堅牢なモデルを活用すると、最先端の AI DApps の開発を目指す人にとって大きなメリットが得られます。これらの強力なツールは、急成長を遂げる AI x Web3 環境で高度なアプリケーションやソリューションを開拓するために必要な基礎機能を提供します。
OpenAI を分散型アプリケーション (dApps) に統合することは、オラクルまたはフロントエンドから OpenAI API を呼び出すことができる開発者の間ではホットな話題です。RedPill は、集約された API サービスを提供することでトップ AI モデルへのアクセスを民主化しており、この統合の最前線に立っています。このサービスは、さまざまな OpenAI API 貢献を統合して 1 つにまとめ、OpenAI によって通常生じる制約なしに、手頃な価格、高速化、包括的なグローバル アクセスなどのメリットをもたらします。
1 分あたりのトークン数制限 (TPM) や地理的境界によるモデル アクセス制限など、暗号通貨開発者が頻繁に直面する固有の問題は、大きな障害につながる可能性があります。RedPill は、開発者のリクエストをネットワーク内の個々の貢献者にルーティングすることで、これらの懸念に正面から対処し、OpenAI からの直接的な制限を効果的に回避します。以下の表は、RedPill と OpenAI の機能とコストの大きな違いを示しています。
| レッドピル | オープンAI |
---|---|---|
TPPMについて | 無制限 | ほとんどのユーザーの場合、30k - 450k |
価格 | 1,000 万件のリクエストにつき 5 ドル、さらにトークンインセンティブ | 1,000万件のリクエストにつき5ドル |
RPM (1分あたりのリクエスト数) | 無制限 | ほとんどのユーザーの場合 500 - 5k |
OpenAI API を利用するだけでなく、開発者は分散型 GPU ネットワーク上でモデルをホストして実行できます。io.net 、Aethir、Akash などの人気のプラットフォームを使用すると、開発者は GPU クラスターを作成および管理できるため、独自のモデルでもオープンソースのモデルでも、最も影響力のあるモデルを展開できます。
これらの分散型 GPU ネットワークは、個々の貢献者または小規模なデータ センターのコンピューティング能力を活用し、さまざまなマシン仕様、より多くのサーバー ロケーション、低コストを実現します。この独自の構造により、開発者は管理可能な予算内で野心的な AI 実験を実施できます。ただし、分散型の性質により、次の比較に示すように、機能、稼働時間の信頼性、およびデータのプライバシーが制限される可能性があります。
| GPU ネットワーク | 集中型GPUプロバイダー |
---|---|---|
SLA (稼働時間) | 変数 | 99.99%以上 |
統合および自動化 SDK | 限定 | 利用可能 |
ストレージサービス | 限定 | 包括的 (バックアップ、ファイル、オブジェクト、ブロック ストレージ、リカバリ戦略) |
データベースサービス | 限定 | 広く入手可能 |
アイデンティティとアクセス管理 | 限定 | 利用可能 |
ファイアウォール | 限定 | 利用可能 |
監視/管理/アラートサービス | 限定 | 利用可能 |
GDPR、CCPA(データプライバシー)への準拠 | 限定 | 部分的な遵守 |
GPU ネットワークに対する最近の関心の高まりは、ビットコイン マイニングの流行さえも凌駕しています。この現象には、いくつかの重要な要因が寄与しています。
AI と分散型コンピューティングを取り巻く環境が進化し続ける中、RedPill や分散型 GPU ネットワークなどのツールは、開発者が従来の障壁を克服し、AI 開発の新たな可能性を切り開く方法に革命をもたらしています。
推奨事項: io.net は、Web2 開発者に特に適したわかりやすいユーザー エクスペリエンスを提供します。サービス レベル契約 (SLA) に柔軟性がある場合、 io.net は予算に優しい選択肢として検討できます。
推論ネットワークは、暗号ネイティブ AI インフラストラクチャのバックボーンを形成し、AI モデルによるデータ処理とインテリジェントな予測や決定をサポートするように設計されています。将来的には、数十億の AI 推論操作を処理する準備が整っています。多くのブロックチェーン レイヤー (レイヤー 1 またはレイヤー 2) は、開発者が AI 推論操作をチェーン上で直接呼び出す機能をすでに提供しています。この市場のリーダーには、Ritual、Vanna、 Fetch.aiなどのプラットフォームが含まれます。
これらのネットワークは、パフォーマンス (レイテンシ、計算時間)、サポートされるモデル、検証可能性、価格 (消費コストと推論コスト)、および全体的な開発者エクスペリエンスなど、いくつかの要因によって異なります。
理想的なシナリオでは、開発者は、さまざまな証明を包括的にサポートし、統合の労力を最小限に抑えながら、カスタマイズされた AI 推論機能をあらゆるアプリケーションにシームレスに統合できる必要があります。
推論ネットワークは、オンデマンドの証明生成と検証、推論計算、推論リレー、Web2 および Web3 エンドポイント、ワンクリック モデル展開、監視、クロスチェーン相互運用性、統合同期、スケジュール実行など、開発者が必要とするすべてのインフラストラクチャ要素を提供します。
これらの機能により、開発者はブロックチェーン プロジェクトに推論を簡単に統合できます。たとえば、分散型金融 (DeFi) 取引ボットを開発する場合、機械学習モデルを使用して取引ペアの売買機会を特定し、Base DEX で戦略を実行できます。
理想的には、すべてのインフラストラクチャがクラウドでホストされ、開発者がモデル戦略を Torch などの一般的な形式でアップロードして保存できるようになります。推論ネットワークは、Web2 および Web3 クエリのモデルの保存と提供の両方を処理します。
モデルの展開が完了すると、開発者は Web3 API リクエストまたはスマート コントラクトを通じて直接モデル推論をトリガーできます。推論ネットワークは継続的に取引戦略を実行し、その結果を基礎となるスマート コントラクトにフィードバックします。コミュニティの資金を大量に管理している場合は、推論の精度を証明する必要がある場合があります。推論結果を受け取ると、スマート コントラクトはその結果に基づいて自動的に取引を実行します。
非同期実行は理論的にはパフォーマンスが向上する可能性がありますが、開発者のエクスペリエンスを複雑にする可能性があります。
非同期モデルでは、開発者は最初にスマート コントラクトを介して推論ネットワークにジョブを送信します。ジョブが完了すると、ネットワークのスマート コントラクトが結果を返します。これにより、プログラミングは推論の呼び出しとその結果の処理の 2 つのフェーズに分割されます。
この分離は、特にネストされた推論呼び出しや広範なロジック処理の場合に、複雑化につながる可能性があります。
さらに、非同期モデルは既存のスマート コントラクトと統合するのが難しい場合があり、追加のコーディング、広範なエラー処理、および追加の依存関係が必要になります。
同期は通常、開発者にとって実装が簡単ですが、レイテンシやブロックチェーンの設計に関連する課題が生じます。たとえば、ブロック時間や市場価格などの急速に変化する入力データを扱う場合、処理が完了するまでにデータが古くなる可能性があります。このシナリオでは、特に古い価格に基づいてスワップなどの操作を実行するときに、スマート コントラクトの実行がロールバックされる可能性があります。
Valence は、非同期で動作する AI インフラストラクチャに焦点を当てることで、これらの課題に取り組んでいます。
現状では、Ritual Network のような新しい推論ネットワークのほとんどはまだテスト段階にあり、公開されているドキュメントによると機能が限られています。オンチェーン AI 計算用のクラウド インフラストラクチャを提供する代わりに、AI 計算をセルフホスティングし、その結果をブロックチェーンに中継するためのフレームワークをサポートしています。
AIGC NFT を実行するために使用される典型的なアーキテクチャは次のとおりです。拡散モデルは NFT を生成し、それを Arweave にアップロードします。次に、推論ネットワークは Arweave アドレスを受信し、オンチェーンで NFT の作成に進みます。
このモデルでは、開発者はインフラストラクチャの大部分を独自に展開およびホストする必要があります。これには、カスタマイズされたサービス ロジック、安定した拡散ノード、NFT スマート コントラクトを使用した Ritual Node の管理が含まれます。
推奨事項: 現在の推論ネットワークは、カスタム モデルの統合と展開が複雑です。現段階では検証可能性を提供していないものが多いため、フロントエンドに AI を展開する方が開発者にとってより簡単なオプションになる可能性があります。検証可能性を必要とする人には、ゼロ ナレッジ マシン ラーニング プロバイダーの Giza が有望な代替手段を提供します。
エージェント ネットワークは、ユーザー向けのエージェントのカスタマイズを簡素化します。これらのネットワークは、タスクを実行し、相互に、またブロックチェーンと自動的にやり取りできる自律エンティティまたはスマート コントラクトで構成されています。現在、Ethereum を理解するために特別に設計された GPT チャットボットなどの大規模言語モデル (LLM) に重点を置いています。ただし、これらのチャットボットは現在、その機能に制限があるため、開発者が複雑なアプリケーションをその上に構築することが制限されています。
今後、エージェント ネットワークは、外部 API アクセスや実行機能などの高度なツールをエージェントに提供することで、その機能を強化する予定です。開発者は、プロンプトとコンテキストを使用して、プロトコル設計、Solidity 開発、コード セキュリティ レビュー、契約の展開などに特化した複数のエージェントを接続し、連携を容易にすることでワークフローを調整できるようになります。
エージェント ネットワークの例としては、 Flock.ai 、Myshell、Theoriq などがあります。
推奨事項: 現在のエージェント テクノロジはまだ進化しており、機能が限られているため、開発者は、Web2 分野の Langchain や Llamaindex などのより成熟したオーケストレーション ツールの方がニーズに効果的であると感じる場合があります。
エージェント ネットワークと推論ネットワークはどちらもブロックチェーンの機能とインタラクションを強化する役割を果たしますが、その中核機能と運用上の焦点は大きく異なります。エージェント ネットワークは、インタラクションの自動化と、自律エージェントによるスマート コントラクトの有用性の拡張に重点を置いています。対照的に、推論ネットワークは主にブロックチェーン上で AI 主導のデータ分析を統合および管理することに取り組んでいます。それぞれが独自の目的を果たし、ブロックチェーンと AI の統合のさまざまな側面に合わせて調整されています。
エージェント ネットワークは主に大規模言語モデル (LLM) に焦点を当てており、Langchain などのオーケストレーション ツールを提供して、これらのエージェントの統合を容易にします。開発者にとって、これは独自の機械学習モデルをゼロから開発する必要がないことを意味します。代わりに、モデルの開発と展開の複雑さは推論ネットワークによって抽象化され、適切なツールとコンテキストを使用してエージェントを接続するだけで済みます。ほとんどの場合、エンド ユーザーはこれらのエージェントと直接対話するため、ユーザー エクスペリエンスが簡素化されます。
逆に、推論ネットワークはエージェント ネットワークの運用バックボーンを形成し、開発者に低レベルのアクセスを許可します。エージェント ネットワークとは異なり、推論ネットワークはエンド ユーザーによって直接利用されることはありません。開発者はモデルを展開する必要があり (LLM に限定されません)、オフチェーンまたはオンチェーン ポイントを介してこれらのモデルにアクセスできます。
興味深いことに、エージェント ネットワークと推論ネットワークはいくつかのケースで融合し始めており、エージェント機能と推論機能の両方を提供する垂直統合型製品が登場しています。両方の機能が同様のインフラストラクチャ バックボーンを共有しているため、この統合は論理的です。
推論ネットワークとエージェントネットワークの比較:
| 推論ネットワーク | エージェントネットワーク |
---|---|---|
ターゲット顧客 | 開発者 | エンドユーザー/開発者 |
対応モデル | LLM、ニューラルネットワーク、従来のMLモデル | 主に法学修士 |
インフラストラクチャー | 多様なモデルをサポート | 主に人気のLLMをサポート |
カスタマイズ性 | 幅広いモデル適応性 | プロンプトとツールを通じて設定可能 |
人気のプロジェクト | 儀式、ヴァランス | フロック、マイシェル、セオリク、オラス |
モデル開発パイプラインをさらに深く掘り下げていくと、Web3 分野内で数多くの機会が生まれます。
垂直統合への傾向は明らかで、ネットワークは単一の計算層から包括的で多機能な ML ソリューションを提供しようとしています。このアプローチは、Web3 ML 開発者にとって合理化されたオールインワン ソリューションを約束し、AI とブロックチェーン テクノロジーの統合を推進します。
オンチェーン推論は、優れた検証可能性とスマート コントラクトなどのバックエンド システムとのシームレスな統合を提供しますが、依然としてコストが高く、時間がかかります。将来的にはハイブリッド アプローチを思い描いています。一部の推論タスクは効率化のためにオフチェーンのフロントエンドで実行され、重要な意思決定中心の推論タスクは引き続きオンチェーンで処理されるという組み合わせが見られるようになるでしょう。このパラダイムは、モバイル デバイスですでに実践されています。モバイル機能を利用して、より小さなモデルをローカルで実行して迅速な応答を実現し、より複雑な計算はクラウドにオフロードして、より大きな言語モデル (LLM) を活用します。