paint-brush
In den überfüllten KI-Räumen ist noch Platz für ein weiteres Genievon@glaze
576 Lesungen
576 Lesungen

In den überfüllten KI-Räumen ist noch Platz für ein weiteres Genie

von Glaze11m2024/07/15
Read on Terminal Reader

Zu lang; Lesen

Ziel dieser Forschung ist es, kritische Bereiche der KI zu erschließen, die für Entwickler in diesem Bereich relevant sind. Sie untersucht die potenziellen Möglichkeiten der Konvergenz von Web3- und KI-Technologien. Die Forschung wurde von Zhenyang bei Upshot, Ashehot, Fran bei Neuronets, Matt bei Valence und Dylan bei Pond durchgeführt.
featured image - In den überfüllten KI-Räumen ist noch Platz für ein weiteres Genie
Glaze HackerNoon profile picture
0-item

Vielen Dank für die wertvollen Beiträge und das Feedback von Zhenyang bei Upshot, Fran bei Giza, Ashely bei Neuronets, Matt bei Valence und Dylan bei Pond.

Ziel dieser Forschung ist es, kritische Bereiche der KI zu erschließen, die für Entwickler in diesem Bereich relevant sind, und die potenziellen neuen Möglichkeiten zu erkunden, die sich durch die Konvergenz von Web3- und KI-Technologien ergeben.

Kurz zusammengefasst

Aktuelle Fortschritte bei KI-zentrierten dezentralen Anwendungen (DApps) rücken mehrere wichtige Tools und Konzepte in den Mittelpunkt:

  • Dezentraler OpenAI-Zugriff, GPU-Netzwerk: Das expansive und schnelle Wachstum der KI, gepaart mit ihrem enormen Anwendungspotenzial, macht sie zu einem deutlich gefragteren Sektor als einst das Bitcoin-Mining. Dieses Wachstum wird durch den Bedarf an unterschiedlichen GPU-Modellen und deren strategische geografische Verteilung untermauert.
  • Inferenz- und Agentennetzwerke: Diese Netzwerke teilen sich zwar eine ähnliche Infrastruktur, ihre Schwerpunkte unterscheiden sich jedoch. Inferenznetzwerke richten sich in erster Linie an erfahrene Entwickler zur Modellbereitstellung, ohne dass für Nicht-LLM-Modelle unbedingt High-End-GPUs erforderlich sind. Im Gegensatz dazu erfordern Agentennetzwerke, die stärker auf LLM ausgerichtet sind, dass sich die Entwickler auf die schnelle Entwicklung und Integration verschiedener Agenten konzentrieren, was ausnahmslos den Einsatz fortschrittlicher GPUs erfordert.
  • KI-Infrastrukturprojekte: Diese Projekte entwickeln sich ständig weiter, bieten neue Funktionen und versprechen erweiterte Funktionalitäten für zukünftige Anwendungen.
  • Kryptonative Projekte: Viele davon befinden sich noch in der Testnetzphase und kämpfen mit Stabilitätsproblemen, komplexen Setups und eingeschränkten Funktionen. Zudem dauert es eine Weile, bis sich ihre Sicherheits- und Datenschutzanforderungen etabliert haben.
  • Unentdeckte Bereiche: Unter der Annahme, dass KI-DApps den Markt erheblich beeinflussen werden, sind mehrere Bereiche noch wenig erforscht, darunter Überwachung, RAG-bezogene Infrastruktur, Web3-native Modelle, dezentrale Agenten mit kryptonativer API und Daten sowie Bewertungsnetzwerke.
  • Trends zur vertikalen Integration: Infrastrukturprojekte zielen zunehmend darauf ab, umfassende Komplettlösungen für AI-DApp-Entwickler bereitzustellen.
  • Hybride Zukunftsprognosen: Die Zukunft bringt wahrscheinlich eine Mischung aus Frontend-Inferenz und On-Chain-Berechnungen mit sich, wobei Kostenüberlegungen mit Überprüfbarkeit in Einklang gebracht werden.

Einführung in Web3 x AI

Die Fusion von Web3 und KI weckt im Kryptobereich großes Interesse, da Entwickler die auf den Kryptobereich zugeschnittene KI-Infrastruktur intensiv erforschen. Ziel ist es, Smart Contracts mit ausgefeilten Intelligenzfunktionen auszustatten, was eine sorgfältige Beachtung der Datenverarbeitung, der Modellpräzision, der Rechenleistungsanforderungen, der Bereitstellungsfeinheiten und der Blockchain-Integration erfordert.


Zu den ersten Lösungen der Web3-Pioniere zählen:

  • Verbesserte GPU-Netzwerke
  • Dedizierte Kryptodaten und Community-Datenkennzeichnung
  • Von der Community trainierte Modellierung
  • Überprüfbare KI-Inferenz- und Trainingsprozesse
  • Umfassende Agentenshops


Trotz der wachsenden Infrastruktur bleibt die tatsächliche KI-Anwendung in DApps begrenzt. Herkömmliche Tutorials kratzen nur an der Oberfläche und veranschaulichen häufig grundlegende OpenAI-API-Interaktionen in Front-End-Umgebungen, ohne die einzigartigen Vorteile der Blockchain in Bezug auf Dezentralisierung und Verifizierbarkeit voll auszuschöpfen.

Im Zuge der Weiterentwicklung der Landschaft erwarten wir bedeutende Entwicklungen, bei denen in den kommenden Monaten viele krypto-native KI-Infrastrukturen vom Testnetz in den voll betriebsbereiten Zustand übergehen werden.


In diesem dynamischen Kontext werden wir bei unserer Untersuchung tiefer in das Arsenal an Tools eintauchen, die in der krypto-nativen KI-Infrastruktur verfügbar sind, und Entwickler auf bevorstehende Fortschritte vorbereiten, die den bahnbrechenden Momenten von GPT-3.5 im Bereich der Kryptowährungen ähneln.

RedPill: Stärkung der dezentralen KI

Die Nutzung der robusten Modelle von OpenAI wie GPT-4-vision, GPT-4-turbo und GPT-4o bietet überzeugende Vorteile für diejenigen, die hochmoderne KI-DApps entwickeln möchten. Diese leistungsstarken Tools bieten die grundlegenden Funktionen, die erforderlich sind, um fortschrittliche Anwendungen und Lösungen in der aufstrebenden KI-x-Web3-Landschaft zu entwickeln.

Die Integration von OpenAI in dezentrale Anwendungen (dApps) ist ein heißes Thema unter Entwicklern, die die OpenAI-API entweder von Oracles oder Frontends aus aufrufen können. RedPill steht bei dieser Integration an vorderster Front, da es den Zugriff auf die besten KI-Modelle demokratisiert, indem es einen aggregierten API-Dienst anbietet. Dieser Dienst fasst verschiedene OpenAI-API-Beiträge zusammen und präsentiert sie unter einem Dach. Dies bietet Vorteile wie höhere Erschwinglichkeit, bessere Geschwindigkeit und umfassenden globalen Zugriff ohne die Einschränkungen, die OpenAI normalerweise mit sich bringt.


Die inhärenten Probleme, mit denen Entwickler von Kryptowährungen häufig konfrontiert sind, wie z. B. begrenzte Token pro Minute (TPM) oder eingeschränkter Modellzugriff aufgrund geografischer Grenzen, können zu erheblichen Hindernissen führen. RedPill geht diese Probleme direkt an, indem es die Anfragen der Entwickler an einzelne Mitwirkende innerhalb ihres Netzwerks weiterleitet und so alle direkten Einschränkungen von OpenAI effektiv umgeht. Die folgende Tabelle zeigt die deutlichen Unterschiede in Bezug auf Funktionen und Kosten zwischen RedPill und OpenAI:


Rote Pille

OpenAI

TPM

Unbegrenzt

30.000 - 450.000 für die meisten Benutzer

Preis

5 USD pro 10 Millionen Anfragen plus Token-Anreize

5 USD pro 10 Millionen Anfragen

RPM (Anfragen pro Minute)

Unbegrenzt

500 - 5k für die meisten Benutzer


GPU-Netzwerk

Neben der Nutzung der OpenAI-API können Entwickler ihre Modelle auf dezentralen GPU-Netzwerken hosten und ausführen. Beliebte Plattformen wie io.net , Aethir und Akash ermöglichen es Entwicklern, ihre GPU-Cluster zu erstellen und zu verwalten, sodass sie die wirkungsvollsten Modelle einsetzen können – egal, ob proprietär oder Open Source.


Diese dezentralen GPU-Netzwerke nutzen die Rechenleistung einzelner Teilnehmer oder kleiner Rechenzentren, was eine Vielzahl von Maschinenspezifikationen, mehr Serverstandorte und geringere Kosten gewährleistet. Diese einzigartige Struktur unterstützt Entwickler dabei, ehrgeizige KI-Experimente innerhalb eines überschaubaren Budgets durchzuführen. Die dezentrale Natur kann jedoch zu eingeschränkten Funktionen, Zuverlässigkeit der Betriebszeit und Datenschutz führen, wie der folgende Vergleich zeigt:


GPU-Netzwerk

Zentralisierter GPU-Anbieter

SLA (Betriebszeit)

Variable

99,99 %+

Integrations- und Automatisierungs-SDKs

Begrenzt

Verfügbar

Speicherdienste

Begrenzt

Umfassend (Backup-, Datei-, Objekt-, Blockspeicher- und Wiederherstellungsstrategien)

Datenbankdienste

Begrenzt

Weit verbreitet

Identitäts- und Zugriffsverwaltung

Begrenzt

Verfügbar

Firewall

Begrenzt

Verfügbar

Überwachungs-/Verwaltungs-/Alarmdienste

Begrenzt

Verfügbar

Einhaltung der DSGVO, CCPA (Datenschutz)

Begrenzt

Teilweise Einhaltung

Das jüngste Interesse an GPU-Netzwerken stellt sogar den Bitcoin-Mining-Wahn in den Schatten. Einige Schlüsselfaktoren tragen zu diesem Phänomen bei:


  • Vielfältiges Publikum : Im Gegensatz zum Bitcoin-Mining, das in erster Linie Spekulanten anzog, sprechen GPU-Netzwerke eine breitere und loyalere Basis von KI-Entwicklern an.
  • Flexible Hardwareanforderungen : KI-Anwendungen erfordern je nach Komplexität der Aufgaben unterschiedliche GPU-Spezifikationen, wodurch dezentrale Netzwerke aufgrund ihrer Nähe zu den Endbenutzern und geringen Latenzzeiten vorteilhaft sind.
  • Fortschrittliche Technologie : Diese Netzwerke profitieren von Innovationen in der Blockchain-Technologie, Virtualisierung und Rechenclustern, was ihre Effizienz und Skalierbarkeit verbessert.
  • Höheres Ertragspotenzial : Der ROI bei GPU-gestützten KI-Berechnungen kann im Vergleich zum wettbewerbsintensiven und begrenzten Charakter des Bitcoin-Minings erheblich höher sein.
  • Branchenakzeptanz : Große Bergbauunternehmen diversifizieren ihre Aktivitäten und integrieren KI-spezifische GPU-Modelle, um relevant zu bleiben und den wachsenden Markt zu erschließen.


Während sich die Landschaft für KI und dezentrales Computing ständig weiterentwickelt, revolutionieren Tools wie RedPill und dezentrale GPU-Netzwerke die Art und Weise, wie Entwickler traditionelle Barrieren überwinden und neue Möglichkeiten in der KI-Entwicklung erschließen.

Empfehlung : io.net bietet eine unkomplizierte Benutzererfahrung, die besonders für Web2-Entwickler geeignet ist. Wenn Sie bei Ihren Service Level Agreements (SLAs) flexibel sind, könnte io.net eine kostengünstige Option sein, die Sie in Betracht ziehen sollten.

Inferenz-Netzwerk

Ein Inferenznetzwerk bildet das Rückgrat der krypto-nativen KI-Infrastruktur und wurde entwickelt, um KI-Modelle bei der Datenverarbeitung und intelligenten Vorhersagen oder Entscheidungen zu unterstützen. In Zukunft soll es Milliarden von KI-Inferenzoperationen verarbeiten. Viele Blockchain-Ebenen (Ebene 1 oder Ebene 2) bieten Entwicklern bereits die Möglichkeit, KI-Inferenzoperationen direkt in der Blockchain aufzurufen. Zu den Marktführern zählen Plattformen wie Ritual, Vanna und Fetch.ai .


Diese Netzwerke unterscheiden sich je nach mehreren Faktoren, darunter Leistung (Latenz, Rechenzeit), unterstützte Modelle, Überprüfbarkeit und Preis (Verbrauchs- und Inferenzkosten) sowie die allgemeine Entwicklererfahrung.

Ziel

Im Idealfall sollten Entwickler in der Lage sein, angepasste KI-Inferenzfunktionen nahtlos in jede Anwendung zu integrieren, mit umfassender Unterstützung für verschiedene Beweise und minimalem Integrationsaufwand.


Das Inferenznetzwerk bietet alle notwendigen Infrastrukturelemente, die Entwickler brauchen, wie etwa die Generierung und Validierung von Beweisen auf Abruf, Inferenzberechnung, Inferenzweiterleitung, Web2- und Web3-Endpunkte, Modellbereitstellung mit einem Klick, Überwachung, kettenübergreifende Interoperabilität, Integrationssynchronisierung und geplante Ausführung.



Mit diesen Funktionen können Entwickler mühelos Inferenz in ihre Blockchain-Projekte integrieren. Bei der Entwicklung von Trading-Bots für dezentralisierte Finanzen (DeFi) können beispielsweise maschinelle Lernmodelle eingesetzt werden, um Kauf- und Verkaufsgelegenheiten für Handelspaare zu identifizieren und Strategien auf einem Base DEX auszuführen.


Im Idealfall wäre die gesamte Infrastruktur in der Cloud gehostet, sodass Entwickler ihre Modellstrategien in gängigen Formaten wie Torch hochladen und speichern könnten. Das Inferenznetzwerk würde sowohl die Speicherung als auch die Bereitstellung von Modellen für Web2- und Web3-Abfragen übernehmen.


Sobald die Modellbereitstellung abgeschlossen ist, können Entwickler die Modellinferenz über Web3-API-Anfragen oder direkt über Smart Contracts auslösen. Das Inferenznetzwerk führt kontinuierlich Handelsstrategien aus und gibt die Ergebnisse an grundlegende Smart Contracts zurück. Bei der Verwaltung erheblicher Gemeinschaftsmittel kann es erforderlich sein, die Genauigkeit der Inferenz nachzuweisen. Nach Erhalt der Inferenzergebnisse führen die Smart Contracts automatisch Trades basierend auf diesen Ergebnissen aus.


Asynchronisierung vs. Synchronisierung

Während die asynchrone Ausführung theoretisch eine bessere Leistung bieten könnte, kann sie die Arbeit des Entwicklers erschweren.


Im asynchronen Modell übermitteln Entwickler ihren Job zunächst über Smart Contracts an das Inferenznetzwerk. Sobald der Job abgeschlossen ist, gibt der Smart Contract des Netzwerks das Ergebnis zurück. Dadurch wird die Programmierung in zwei Phasen unterteilt: Aufrufen der Inferenz und Verarbeiten ihrer Ergebnisse.



Diese Trennung kann insbesondere bei verschachtelten Inferenzaufrufen oder umfangreicher Logikverarbeitung zu Komplexitäten führen.



Darüber hinaus kann die Integration asynchroner Modelle in vorhandene Smart Contracts eine Herausforderung darstellen, da zusätzliche Codierung, umfassende Fehlerbehandlung und zusätzliche Abhängigkeiten erforderlich sind.

Die Synchronisierung ist für Entwickler normalerweise einfacher zu implementieren, bringt aber Herausforderungen in Bezug auf Latenz und Blockchain-Design mit sich. Wenn Sie beispielsweise mit sich schnell ändernden Eingabedaten wie Blockzeit oder Marktpreisen arbeiten, können die Daten veraltet sein, bis die Verarbeitung abgeschlossen ist. Dieses Szenario kann dazu führen, dass Smart-Contract-Ausführungen zurückgesetzt werden, insbesondere wenn Vorgänge wie das Auswechseln auf der Grundlage veralteter Preise durchgeführt werden.



Valence begegnet diesen Herausforderungen, indem es sich auf eine asynchron arbeitende KI-Infrastruktur konzentriert.

Wirklichkeit

In der aktuellen Landschaft befinden sich die meisten neuen Inferenznetzwerke wie Ritual Network noch in der Testphase und bieten laut ihrer öffentlichen Dokumentation nur eingeschränkte Funktionalität. Anstatt eine Cloud-Infrastruktur für On-Chain-KI-Berechnungen bereitzustellen, unterstützen sie ein Framework für selbst gehostete KI-Berechnungen und die anschließende Weiterleitung der Ergebnisse an die Blockchain.


Hier ist eine typische Architektur, die zum Ausführen eines AIGC NFT verwendet wird: Das Diffusionsmodell generiert das NFT und lädt es auf Arweave hoch. Das Inferenznetzwerk erhält dann die Arweave-Adresse und prägt das NFT in der Kette.



Dieses Modell erfordert, dass Entwickler den Großteil der Infrastruktur unabhängig bereitstellen und hosten. Dazu gehört die Verwaltung von Ritualknoten mit angepasster Servicelogik, stabilen Diffusionsknoten und NFT-Smart-Contracts.


Empfehlung : Die Integration und Bereitstellung benutzerdefinierter Modelle aktueller Inferenznetzwerke ist komplex. Da viele derzeit keine Verifizierbarkeit bieten, könnte die Bereitstellung von KI im Frontend für Entwickler eine einfachere Option sein. Für diejenigen, die Verifizierbarkeit benötigen, bietet der Zero Knowledge Machine Learning-Anbieter Giza eine vielversprechende Alternative.

Agentennetzwerk

Agentennetzwerke vereinfachen die Anpassung von Agenten an Benutzer. Diese Netzwerke bestehen aus autonomen Einheiten oder Smart Contracts, die Aufgaben ausführen und autonom miteinander und mit der Blockchain interagieren können. Sie konzentrieren sich derzeit eher auf große Sprachmodelle (LLMs), wie z. B. GPT-Chatbots, die speziell für das Verständnis von Ethereum entwickelt wurden. Diese Chatbots sind derzeit jedoch in ihren Kapazitäten begrenzt, was Entwickler daran hindert, komplexe Anwendungen auf ihrer Basis zu erstellen.



In Zukunft werden Agentennetzwerke ihre Fähigkeiten erweitern, indem sie Agenten mit erweiterten Tools ausstatten, darunter externe API-Zugriffe und Ausführungsfunktionen. Entwickler können Arbeitsabläufe orchestrieren, indem sie mehrere spezialisierte Agenten verbinden – beispielsweise solche, die sich auf Protokolldesign, Solidity-Entwicklung, Code-Sicherheitsüberprüfungen und Vertragsbereitstellung konzentrieren – und dabei Eingabeaufforderungen und Kontexte verwenden, um die Zusammenarbeit zu erleichtern.



Beispiele für Agentennetzwerke sind Flock.ai , Myshell und Theoriq.


Empfehlung : Da sich die aktuellen Agententechnologien noch in der Entwicklung befinden und nur über begrenzte Funktionen verfügen, sind für Entwickler ausgereiftere Orchestrierungstools wie Langchain oder Llamaindex im Web2-Bereich möglicherweise für ihre Anforderungen effektiver.

Unterschied zwischen Agentennetzwerk und Inferenznetzwerk

Während sowohl Agentennetzwerke als auch Inferenznetzwerke dazu dienen, die Fähigkeiten und Interaktionen auf der Blockchain zu verbessern, unterscheiden sich ihre Kernfunktionen und ihr operativer Schwerpunkt stark. Agentennetzwerke sind darauf ausgerichtet, Interaktionen zu automatisieren und den Nutzen von Smart Contracts durch autonome Agenten zu erweitern. Im Gegensatz dazu befassen sich Inferenznetzwerke in erster Linie mit der Integration und Verwaltung KI-gesteuerter Datenanalysen auf der Blockchain. Jedes dient einem einzigartigen Zweck, der auf unterschiedliche Aspekte der Blockchain- und KI-Integration zugeschnitten ist.

Agentennetzwerke konzentrieren sich in erster Linie auf große Sprachmodelle (LLMs) und bieten Orchestrierungstools wie Langchain, um die Integration dieser Agenten zu erleichtern. Für Entwickler bedeutet dies, dass sie ihre eigenen Machine-Learning-Modelle nicht von Grund auf neu entwickeln müssen. Stattdessen wird die Komplexität der Modellentwicklung und -bereitstellung durch das Inferenznetzwerk abstrahiert, sodass sie Agenten einfach mithilfe geeigneter Tools und Kontexte verbinden können. In den meisten Fällen interagieren Endbenutzer direkt mit diesen Agenten, was das Benutzererlebnis vereinfacht.


Umgekehrt bildet das Inferenznetzwerk das operative Rückgrat des Agentennetzwerks und gewährt Entwicklern Zugriff auf niedrigerer Ebene. Im Gegensatz zu Agentennetzwerken werden Inferenznetzwerke nicht direkt von Endbenutzern genutzt. Entwickler müssen ihre Modelle bereitstellen – die nicht auf LLMs beschränkt sind – und können über Offchain- oder Onchain-Punkte auf diese Modelle zugreifen.


Interessanterweise beginnen Agenten- und Inferenznetzwerke in einigen Fällen zu konvergieren, wobei vertikal integrierte Produkte entstehen, die sowohl Agenten- als auch Inferenzfunktionen bieten. Diese Integration ist logisch, da beide Funktionen ein ähnliches Infrastruktur-Backbone nutzen.


Vergleich von Inferenz- und Agentennetzwerken:


Inferenz-Netzwerk

Agentennetzwerk

Zielgruppe

Entwickler

Endbenutzer/Entwickler

Unterstützte Modelle

LLMs, neuronale Netzwerke, traditionelle ML-Modelle

Vorwiegend LLMs

Infrastruktur

Unterstützt verschiedene Modelle

Unterstützt vor allem gängige LLMs

Anpassbarkeit

Breite Modellanpassungsfähigkeit

Konfigurierbar durch Eingabeaufforderungen und Tools

Beliebte Projekte

Ritual, Valenz

Flock, Myshell, Theoriq, Olas

Raum für Next Genius Innovationen

Wenn wir tiefer in die Modellentwicklungspipeline eintauchen, ergeben sich in Web3-Feldern zahlreiche Möglichkeiten:

  • Datensätze : Die Umwandlung von Blockchain-Daten in ML-fähige Datensätze ist von entscheidender Bedeutung. Projekte wie Giza machen Fortschritte, indem sie qualitativ hochwertige, DeFi-bezogene Datensätze bereitstellen. Die Erstellung von graphenbasierten Datensätzen, die Blockchain-Interaktionen besser darstellen, ist jedoch noch ein Bereich, in dem Entwicklungsbedarf besteht.
  • Modellspeicherung : Für große Modelle sind effiziente Speicherung, Verteilung und Versionierung unerlässlich. Zu den Innovatoren in diesem Bereich zählen Filecoin, AR und 0g.
  • Modelltraining : Dezentrales und überprüfbares Modelltraining bleibt eine Herausforderung. Unternehmen wie Gensyn, Bittensor und Flock machen bedeutende Fortschritte.
  • Überwachung : Für die Überwachung der Modellnutzung außerhalb und innerhalb der Kette ist eine effektive Infrastruktur erforderlich, die Entwicklern hilft, Probleme oder Verzerrungen in ihren Modellen zu erkennen und zu beheben.
  • RAG-Infrastruktur : Mit der durch Retriever erweiterten Stromerzeugung steigt die Nachfrage nach privater, effizienter Speicherung und Berechnung. Firstbatch und Bagel sind Beispiele für Projekte, die diesen Bedarf decken.
  • Spezielle Web3-Modelle : Maßgeschneiderte Modelle sind für spezielle Web3-Anwendungsfälle wie Betrugserkennung oder Preisvorhersagen unerlässlich. Pond entwickelt beispielsweise blockchainorientierte Graph Neural Networks (GNNs).
  • Bewertungsnetzwerke : Die zunehmende Zahl von Agenten erfordert robuste Bewertungsmechanismen. Plattformen wie Neuronets spielen bei der Bereitstellung solcher Dienste eine zentrale Rolle.
  • Konsens : Der traditionelle Proof of Stake (PoS) ist aufgrund seiner Komplexität möglicherweise nicht für KI-orientierte Aufgaben geeignet. Bittensor hat beispielsweise ein Konsensmodell entwickelt, das Knoten für die Bereitstellung wertvoller KI-Erkenntnisse belohnt.

Zukunftsausblick

Der Trend zur vertikalen Integration ist deutlich erkennbar. Dabei versuchen Netzwerke, umfassende, multifunktionale ML-Lösungen aus einer einzigen Rechenschicht bereitzustellen. Dieser Ansatz verspricht eine optimierte Komplettlösung für Web3-ML-Entwickler und treibt die Integration von KI- und Blockchain-Technologien voran.

On-Chain-Inferenz bietet zwar außergewöhnliche Verifizierbarkeit und nahtlose Integration mit Backend-Systemen wie Smart Contracts, ist aber nach wie vor teuer und langsam. Ich stelle mir für die Zukunft einen hybriden Ansatz vor. Wir werden wahrscheinlich eine Mischung sehen, bei der einige Inferenzaufgaben aus Effizienzgründen außerhalb der Kette, im Frontend, ausgeführt werden, während kritische, entscheidungszentrierte Inferenzaufgaben weiterhin in der Kette ausgeführt werden. Dieses Paradigma wird bei Mobilgeräten bereits praktiziert. Unter Ausnutzung der mobilen Funktionen werden kleinere Modelle lokal ausgeführt, um schnelle Antworten zu ermöglichen, während komplexere Berechnungen in die Cloud ausgelagert werden und dabei größere Sprachmodelle (LLMs) nutzen.