Vielen Dank für die wertvollen Beiträge und das Feedback von Zhenyang bei Upshot, Fran bei Giza, Ashely bei Neuronets, Matt bei Valence und Dylan bei Pond.
Ziel dieser Forschung ist es, kritische Bereiche der KI zu erschließen, die für Entwickler in diesem Bereich relevant sind, und die potenziellen neuen Möglichkeiten zu erkunden, die sich durch die Konvergenz von Web3- und KI-Technologien ergeben.
Aktuelle Fortschritte bei KI-zentrierten dezentralen Anwendungen (DApps) rücken mehrere wichtige Tools und Konzepte in den Mittelpunkt:
Die Fusion von Web3 und KI weckt im Kryptobereich großes Interesse, da Entwickler die auf den Kryptobereich zugeschnittene KI-Infrastruktur intensiv erforschen. Ziel ist es, Smart Contracts mit ausgefeilten Intelligenzfunktionen auszustatten, was eine sorgfältige Beachtung der Datenverarbeitung, der Modellpräzision, der Rechenleistungsanforderungen, der Bereitstellungsfeinheiten und der Blockchain-Integration erfordert.
Zu den ersten Lösungen der Web3-Pioniere zählen:
Trotz der wachsenden Infrastruktur bleibt die tatsächliche KI-Anwendung in DApps begrenzt. Herkömmliche Tutorials kratzen nur an der Oberfläche und veranschaulichen häufig grundlegende OpenAI-API-Interaktionen in Front-End-Umgebungen, ohne die einzigartigen Vorteile der Blockchain in Bezug auf Dezentralisierung und Verifizierbarkeit voll auszuschöpfen.
Im Zuge der Weiterentwicklung der Landschaft erwarten wir bedeutende Entwicklungen, bei denen in den kommenden Monaten viele krypto-native KI-Infrastrukturen vom Testnetz in den voll betriebsbereiten Zustand übergehen werden.
In diesem dynamischen Kontext werden wir bei unserer Untersuchung tiefer in das Arsenal an Tools eintauchen, die in der krypto-nativen KI-Infrastruktur verfügbar sind, und Entwickler auf bevorstehende Fortschritte vorbereiten, die den bahnbrechenden Momenten von GPT-3.5 im Bereich der Kryptowährungen ähneln.
Die Nutzung der robusten Modelle von OpenAI wie GPT-4-vision, GPT-4-turbo und GPT-4o bietet überzeugende Vorteile für diejenigen, die hochmoderne KI-DApps entwickeln möchten. Diese leistungsstarken Tools bieten die grundlegenden Funktionen, die erforderlich sind, um fortschrittliche Anwendungen und Lösungen in der aufstrebenden KI-x-Web3-Landschaft zu entwickeln.
Die Integration von OpenAI in dezentrale Anwendungen (dApps) ist ein heißes Thema unter Entwicklern, die die OpenAI-API entweder von Oracles oder Frontends aus aufrufen können. RedPill steht bei dieser Integration an vorderster Front, da es den Zugriff auf die besten KI-Modelle demokratisiert, indem es einen aggregierten API-Dienst anbietet. Dieser Dienst fasst verschiedene OpenAI-API-Beiträge zusammen und präsentiert sie unter einem Dach. Dies bietet Vorteile wie höhere Erschwinglichkeit, bessere Geschwindigkeit und umfassenden globalen Zugriff ohne die Einschränkungen, die OpenAI normalerweise mit sich bringt.
Die inhärenten Probleme, mit denen Entwickler von Kryptowährungen häufig konfrontiert sind, wie z. B. begrenzte Token pro Minute (TPM) oder eingeschränkter Modellzugriff aufgrund geografischer Grenzen, können zu erheblichen Hindernissen führen. RedPill geht diese Probleme direkt an, indem es die Anfragen der Entwickler an einzelne Mitwirkende innerhalb ihres Netzwerks weiterleitet und so alle direkten Einschränkungen von OpenAI effektiv umgeht. Die folgende Tabelle zeigt die deutlichen Unterschiede in Bezug auf Funktionen und Kosten zwischen RedPill und OpenAI:
| Rote Pille | OpenAI |
---|---|---|
TPM | Unbegrenzt | 30.000 - 450.000 für die meisten Benutzer |
Preis | 5 USD pro 10 Millionen Anfragen plus Token-Anreize | 5 USD pro 10 Millionen Anfragen |
RPM (Anfragen pro Minute) | Unbegrenzt | 500 - 5k für die meisten Benutzer |
Neben der Nutzung der OpenAI-API können Entwickler ihre Modelle auf dezentralen GPU-Netzwerken hosten und ausführen. Beliebte Plattformen wie io.net , Aethir und Akash ermöglichen es Entwicklern, ihre GPU-Cluster zu erstellen und zu verwalten, sodass sie die wirkungsvollsten Modelle einsetzen können – egal, ob proprietär oder Open Source.
Diese dezentralen GPU-Netzwerke nutzen die Rechenleistung einzelner Teilnehmer oder kleiner Rechenzentren, was eine Vielzahl von Maschinenspezifikationen, mehr Serverstandorte und geringere Kosten gewährleistet. Diese einzigartige Struktur unterstützt Entwickler dabei, ehrgeizige KI-Experimente innerhalb eines überschaubaren Budgets durchzuführen. Die dezentrale Natur kann jedoch zu eingeschränkten Funktionen, Zuverlässigkeit der Betriebszeit und Datenschutz führen, wie der folgende Vergleich zeigt:
| GPU-Netzwerk | Zentralisierter GPU-Anbieter |
---|---|---|
SLA (Betriebszeit) | Variable | 99,99 %+ |
Integrations- und Automatisierungs-SDKs | Begrenzt | Verfügbar |
Speicherdienste | Begrenzt | Umfassend (Backup-, Datei-, Objekt-, Blockspeicher- und Wiederherstellungsstrategien) |
Datenbankdienste | Begrenzt | Weit verbreitet |
Identitäts- und Zugriffsverwaltung | Begrenzt | Verfügbar |
Firewall | Begrenzt | Verfügbar |
Überwachungs-/Verwaltungs-/Alarmdienste | Begrenzt | Verfügbar |
Einhaltung der DSGVO, CCPA (Datenschutz) | Begrenzt | Teilweise Einhaltung |
Das jüngste Interesse an GPU-Netzwerken stellt sogar den Bitcoin-Mining-Wahn in den Schatten. Einige Schlüsselfaktoren tragen zu diesem Phänomen bei:
Während sich die Landschaft für KI und dezentrales Computing ständig weiterentwickelt, revolutionieren Tools wie RedPill und dezentrale GPU-Netzwerke die Art und Weise, wie Entwickler traditionelle Barrieren überwinden und neue Möglichkeiten in der KI-Entwicklung erschließen.
Empfehlung : io.net bietet eine unkomplizierte Benutzererfahrung, die besonders für Web2-Entwickler geeignet ist. Wenn Sie bei Ihren Service Level Agreements (SLAs) flexibel sind, könnte io.net eine kostengünstige Option sein, die Sie in Betracht ziehen sollten.
Ein Inferenznetzwerk bildet das Rückgrat der krypto-nativen KI-Infrastruktur und wurde entwickelt, um KI-Modelle bei der Datenverarbeitung und intelligenten Vorhersagen oder Entscheidungen zu unterstützen. In Zukunft soll es Milliarden von KI-Inferenzoperationen verarbeiten. Viele Blockchain-Ebenen (Ebene 1 oder Ebene 2) bieten Entwicklern bereits die Möglichkeit, KI-Inferenzoperationen direkt in der Blockchain aufzurufen. Zu den Marktführern zählen Plattformen wie Ritual, Vanna und Fetch.ai .
Diese Netzwerke unterscheiden sich je nach mehreren Faktoren, darunter Leistung (Latenz, Rechenzeit), unterstützte Modelle, Überprüfbarkeit und Preis (Verbrauchs- und Inferenzkosten) sowie die allgemeine Entwicklererfahrung.
Im Idealfall sollten Entwickler in der Lage sein, angepasste KI-Inferenzfunktionen nahtlos in jede Anwendung zu integrieren, mit umfassender Unterstützung für verschiedene Beweise und minimalem Integrationsaufwand.
Das Inferenznetzwerk bietet alle notwendigen Infrastrukturelemente, die Entwickler brauchen, wie etwa die Generierung und Validierung von Beweisen auf Abruf, Inferenzberechnung, Inferenzweiterleitung, Web2- und Web3-Endpunkte, Modellbereitstellung mit einem Klick, Überwachung, kettenübergreifende Interoperabilität, Integrationssynchronisierung und geplante Ausführung.
Mit diesen Funktionen können Entwickler mühelos Inferenz in ihre Blockchain-Projekte integrieren. Bei der Entwicklung von Trading-Bots für dezentralisierte Finanzen (DeFi) können beispielsweise maschinelle Lernmodelle eingesetzt werden, um Kauf- und Verkaufsgelegenheiten für Handelspaare zu identifizieren und Strategien auf einem Base DEX auszuführen.
Im Idealfall wäre die gesamte Infrastruktur in der Cloud gehostet, sodass Entwickler ihre Modellstrategien in gängigen Formaten wie Torch hochladen und speichern könnten. Das Inferenznetzwerk würde sowohl die Speicherung als auch die Bereitstellung von Modellen für Web2- und Web3-Abfragen übernehmen.
Sobald die Modellbereitstellung abgeschlossen ist, können Entwickler die Modellinferenz über Web3-API-Anfragen oder direkt über Smart Contracts auslösen. Das Inferenznetzwerk führt kontinuierlich Handelsstrategien aus und gibt die Ergebnisse an grundlegende Smart Contracts zurück. Bei der Verwaltung erheblicher Gemeinschaftsmittel kann es erforderlich sein, die Genauigkeit der Inferenz nachzuweisen. Nach Erhalt der Inferenzergebnisse führen die Smart Contracts automatisch Trades basierend auf diesen Ergebnissen aus.
Während die asynchrone Ausführung theoretisch eine bessere Leistung bieten könnte, kann sie die Arbeit des Entwicklers erschweren.
Im asynchronen Modell übermitteln Entwickler ihren Job zunächst über Smart Contracts an das Inferenznetzwerk. Sobald der Job abgeschlossen ist, gibt der Smart Contract des Netzwerks das Ergebnis zurück. Dadurch wird die Programmierung in zwei Phasen unterteilt: Aufrufen der Inferenz und Verarbeiten ihrer Ergebnisse.
Diese Trennung kann insbesondere bei verschachtelten Inferenzaufrufen oder umfangreicher Logikverarbeitung zu Komplexitäten führen.
Darüber hinaus kann die Integration asynchroner Modelle in vorhandene Smart Contracts eine Herausforderung darstellen, da zusätzliche Codierung, umfassende Fehlerbehandlung und zusätzliche Abhängigkeiten erforderlich sind.
Die Synchronisierung ist für Entwickler normalerweise einfacher zu implementieren, bringt aber Herausforderungen in Bezug auf Latenz und Blockchain-Design mit sich. Wenn Sie beispielsweise mit sich schnell ändernden Eingabedaten wie Blockzeit oder Marktpreisen arbeiten, können die Daten veraltet sein, bis die Verarbeitung abgeschlossen ist. Dieses Szenario kann dazu führen, dass Smart-Contract-Ausführungen zurückgesetzt werden, insbesondere wenn Vorgänge wie das Auswechseln auf der Grundlage veralteter Preise durchgeführt werden.
Valence begegnet diesen Herausforderungen, indem es sich auf eine asynchron arbeitende KI-Infrastruktur konzentriert.
In der aktuellen Landschaft befinden sich die meisten neuen Inferenznetzwerke wie Ritual Network noch in der Testphase und bieten laut ihrer öffentlichen Dokumentation nur eingeschränkte Funktionalität. Anstatt eine Cloud-Infrastruktur für On-Chain-KI-Berechnungen bereitzustellen, unterstützen sie ein Framework für selbst gehostete KI-Berechnungen und die anschließende Weiterleitung der Ergebnisse an die Blockchain.
Hier ist eine typische Architektur, die zum Ausführen eines AIGC NFT verwendet wird: Das Diffusionsmodell generiert das NFT und lädt es auf Arweave hoch. Das Inferenznetzwerk erhält dann die Arweave-Adresse und prägt das NFT in der Kette.
Dieses Modell erfordert, dass Entwickler den Großteil der Infrastruktur unabhängig bereitstellen und hosten. Dazu gehört die Verwaltung von Ritualknoten mit angepasster Servicelogik, stabilen Diffusionsknoten und NFT-Smart-Contracts.
Empfehlung : Die Integration und Bereitstellung benutzerdefinierter Modelle aktueller Inferenznetzwerke ist komplex. Da viele derzeit keine Verifizierbarkeit bieten, könnte die Bereitstellung von KI im Frontend für Entwickler eine einfachere Option sein. Für diejenigen, die Verifizierbarkeit benötigen, bietet der Zero Knowledge Machine Learning-Anbieter Giza eine vielversprechende Alternative.
Agentennetzwerke vereinfachen die Anpassung von Agenten an Benutzer. Diese Netzwerke bestehen aus autonomen Einheiten oder Smart Contracts, die Aufgaben ausführen und autonom miteinander und mit der Blockchain interagieren können. Sie konzentrieren sich derzeit eher auf große Sprachmodelle (LLMs), wie z. B. GPT-Chatbots, die speziell für das Verständnis von Ethereum entwickelt wurden. Diese Chatbots sind derzeit jedoch in ihren Kapazitäten begrenzt, was Entwickler daran hindert, komplexe Anwendungen auf ihrer Basis zu erstellen.
In Zukunft werden Agentennetzwerke ihre Fähigkeiten erweitern, indem sie Agenten mit erweiterten Tools ausstatten, darunter externe API-Zugriffe und Ausführungsfunktionen. Entwickler können Arbeitsabläufe orchestrieren, indem sie mehrere spezialisierte Agenten verbinden – beispielsweise solche, die sich auf Protokolldesign, Solidity-Entwicklung, Code-Sicherheitsüberprüfungen und Vertragsbereitstellung konzentrieren – und dabei Eingabeaufforderungen und Kontexte verwenden, um die Zusammenarbeit zu erleichtern.
Beispiele für Agentennetzwerke sind Flock.ai , Myshell und Theoriq.
Empfehlung : Da sich die aktuellen Agententechnologien noch in der Entwicklung befinden und nur über begrenzte Funktionen verfügen, sind für Entwickler ausgereiftere Orchestrierungstools wie Langchain oder Llamaindex im Web2-Bereich möglicherweise für ihre Anforderungen effektiver.
Während sowohl Agentennetzwerke als auch Inferenznetzwerke dazu dienen, die Fähigkeiten und Interaktionen auf der Blockchain zu verbessern, unterscheiden sich ihre Kernfunktionen und ihr operativer Schwerpunkt stark. Agentennetzwerke sind darauf ausgerichtet, Interaktionen zu automatisieren und den Nutzen von Smart Contracts durch autonome Agenten zu erweitern. Im Gegensatz dazu befassen sich Inferenznetzwerke in erster Linie mit der Integration und Verwaltung KI-gesteuerter Datenanalysen auf der Blockchain. Jedes dient einem einzigartigen Zweck, der auf unterschiedliche Aspekte der Blockchain- und KI-Integration zugeschnitten ist.
Agentennetzwerke konzentrieren sich in erster Linie auf große Sprachmodelle (LLMs) und bieten Orchestrierungstools wie Langchain, um die Integration dieser Agenten zu erleichtern. Für Entwickler bedeutet dies, dass sie ihre eigenen Machine-Learning-Modelle nicht von Grund auf neu entwickeln müssen. Stattdessen wird die Komplexität der Modellentwicklung und -bereitstellung durch das Inferenznetzwerk abstrahiert, sodass sie Agenten einfach mithilfe geeigneter Tools und Kontexte verbinden können. In den meisten Fällen interagieren Endbenutzer direkt mit diesen Agenten, was das Benutzererlebnis vereinfacht.
Umgekehrt bildet das Inferenznetzwerk das operative Rückgrat des Agentennetzwerks und gewährt Entwicklern Zugriff auf niedrigerer Ebene. Im Gegensatz zu Agentennetzwerken werden Inferenznetzwerke nicht direkt von Endbenutzern genutzt. Entwickler müssen ihre Modelle bereitstellen – die nicht auf LLMs beschränkt sind – und können über Offchain- oder Onchain-Punkte auf diese Modelle zugreifen.
Interessanterweise beginnen Agenten- und Inferenznetzwerke in einigen Fällen zu konvergieren, wobei vertikal integrierte Produkte entstehen, die sowohl Agenten- als auch Inferenzfunktionen bieten. Diese Integration ist logisch, da beide Funktionen ein ähnliches Infrastruktur-Backbone nutzen.
Vergleich von Inferenz- und Agentennetzwerken:
| Inferenz-Netzwerk | Agentennetzwerk |
---|---|---|
Zielgruppe | Entwickler | Endbenutzer/Entwickler |
Unterstützte Modelle | LLMs, neuronale Netzwerke, traditionelle ML-Modelle | Vorwiegend LLMs |
Infrastruktur | Unterstützt verschiedene Modelle | Unterstützt vor allem gängige LLMs |
Anpassbarkeit | Breite Modellanpassungsfähigkeit | Konfigurierbar durch Eingabeaufforderungen und Tools |
Beliebte Projekte | Ritual, Valenz | Flock, Myshell, Theoriq, Olas |
Wenn wir tiefer in die Modellentwicklungspipeline eintauchen, ergeben sich in Web3-Feldern zahlreiche Möglichkeiten:
Der Trend zur vertikalen Integration ist deutlich erkennbar. Dabei versuchen Netzwerke, umfassende, multifunktionale ML-Lösungen aus einer einzigen Rechenschicht bereitzustellen. Dieser Ansatz verspricht eine optimierte Komplettlösung für Web3-ML-Entwickler und treibt die Integration von KI- und Blockchain-Technologien voran.
On-Chain-Inferenz bietet zwar außergewöhnliche Verifizierbarkeit und nahtlose Integration mit Backend-Systemen wie Smart Contracts, ist aber nach wie vor teuer und langsam. Ich stelle mir für die Zukunft einen hybriden Ansatz vor. Wir werden wahrscheinlich eine Mischung sehen, bei der einige Inferenzaufgaben aus Effizienzgründen außerhalb der Kette, im Frontend, ausgeführt werden, während kritische, entscheidungszentrierte Inferenzaufgaben weiterhin in der Kette ausgeführt werden. Dieses Paradigma wird bei Mobilgeräten bereits praktiziert. Unter Ausnutzung der mobilen Funktionen werden kleinere Modelle lokal ausgeführt, um schnelle Antworten zu ermöglichen, während komplexere Berechnungen in die Cloud ausgelagert werden und dabei größere Sprachmodelle (LLMs) nutzen.