paint-brush
Redéfinir la disponibilité des données pour la prochaine génération d'applications Blockchain avec 0G Labspar@ishanpandey
282 lectures

Redéfinir la disponibilité des données pour la prochaine génération d'applications Blockchain avec 0G Labs

par Ishan Pandey4m2024/07/11
Read on Terminal Reader

Trop long; Pour lire

0G Labs est l'un des principaux fournisseurs d'infrastructures Web3, se concentrant sur les solutions d'IA modulaires. 0G prétend atteindre des débits de 50 Go/seconde, ce qui est nettement plus rapide que ses concurrents. Son système de disponibilité des données est conçu pour relever les défis d'évolutivité et de sécurité de la technologie blockchain. La plateforme est 100 fois plus rentable que les alternatives.
featured image - Redéfinir la disponibilité des données pour la prochaine génération d'applications Blockchain avec 0G Labs
Ishan Pandey HackerNoon profile picture
0-item
1-item


Aujourd'hui, nous nous asseyons avec Michael pour découvrir l'histoire de 0G Labs , une entreprise qui non seulement participe à la révolution Web3, mais qui façonne activement son avenir. Avec des solutions révolutionnaires qui promettent d’offrir une vitesse, une évolutivité et une rentabilité sans précédent, 0G Labs se positionne à l’avant-garde de la prochaine génération de technologie blockchain.


Dans cette interview exclusive, nous explorerons les innovations techniques qui permettent à 0G d'atteindre des débits époustouflants de 50 Go/seconde, nous plongerons dans les décisions architecturales qui rendent leur solution 100 fois plus rentable que les alternatives, et découvrirons la vision de Heinrich pour permettant des cas d'utilisation avancés comme l'IA en chaîne et la DeFi haute fréquence.


Ishan Pandey : Bonjour Michael, bienvenue dans notre série « Derrière la startup ». Vous avez eu un parcours réussi avec garten, votre précédente entreprise dans le domaine du bien-être en entreprise. Qu'est-ce qui vous a inspiré à passer de cet espace à la création de 0G Labs, et comment votre expérience en tant que fondateur éclaire-t-elle votre approche du Web3 et de la technologie blockchain ?


Michael Heinrich : Merci de m'avoir invité. Mon parcours avec Garten m'a appris l'importance de la résilience et de l'adaptabilité, surtout pendant la pandémie. La transition vers 0G Labs a été motivée par ma passion pour les technologies de pointe et par la prise de conscience des besoins critiques de l'infrastructure croissante de données et d'IA de Web3. En collaborant avec d'autres esprits brillants, tels que notre CTO Ming Wu, nous avons identifié l'opportunité de combler les lacunes existantes. Avec 0G Labs, nous visons à faire des besoins en chaîne de haute performance tels que l'IA une réalité.


Ishan Pandey : 0G Labs se positionne comme l'un des principaux fournisseurs d'infrastructures Web3, en se concentrant sur les solutions modulaires de blockchain d'IA. Pouvez-vous expliquer le concept de base du système de disponibilité des données de 0G et comment il aborde les compromis en matière d'évolutivité et de sécurité dans les systèmes blockchain ?


Michael Heinrich : Le concept principal de 0G Labs s'articule autour de notre nouveau système de disponibilité des données, conçu pour relever les défis d'évolutivité et de sécurité de la technologie blockchain. La disponibilité des données garantit que les données sont accessibles et vérifiables par les participants au réseau, ce qui est important pour un large éventail de cas d'utilisation dans Web3. Par exemple, les blockchains de couche 2 comme Arbitrum gèrent les transactions hors chaîne, puis les publient sur Ethereum, où les données doivent être prouvées comme étant disponibles. Et pourtant, les solutions traditionnelles de disponibilité des données présentent des limites en termes de débit et de performances et sont inadaptées aux applications hautes performances telles que l’IA en chaîne.


Notre approche avec 0G DA implique une architecture comprenant 0G Storage, où les données sont stockées, ainsi que 0G Consensus qui confirme être « disponible ». Un groupe aléatoire de nœuds est ensuite sélectionné dans 0G Storage et parvient à un consensus sur la disponibilité des données. Pour éviter les problèmes de mise à l'échelle, nous pouvons ajouter une infinité de réseaux de consensus, tous gérés par un ensemble partagé de validateurs via un processus appelé jalonnement partagé. Cela nous permet de gérer de grandes quantités de données avec des performances élevées et un faible coût, permettant des cas d'utilisation avancés tels que l'IA en chaîne, la DeFi haute fréquence, etc.


Ishan Pandey : 0G prétend atteindre des débits de 50 Go/seconde, ce qui est nettement plus rapide que ses concurrents. Pouvez-vous expliquer en détail comment votre plate-forme atteint cette vitesse, en particulier dans le contexte d'un problème de mise à l'échelle des nœuds décentralisés ?


Michael Heinrich : L'un des aspects de notre architecture qui nous rend exceptionnellement rapides est que 0G Storage et 0G Consensus sont connectés via ce que l'on appelle notre Data Publishing Lane. C'est là que, comme mentionné, les groupes de nœuds de stockage sont invités à parvenir à un consensus sur les données disponibles. Cela signifie qu'ils font partie du même système, ce qui accélère les choses, mais en outre, nous divisons les données en petits morceaux et disposons de nombreux réseaux de consensus différents fonctionnant tous en parallèle. Dans l’ensemble, cela fait de la 0G la plus rapide du marché.


Ishan Pandey : Votre plateforme vise à être 100 fois plus rentable que les alternatives. Comment l'architecture unique de 0G, séparant le stockage et la publication des données, contribue-t-elle à cette rentabilité tout en maintenant des performances élevées ?


Michael Heinrich : L'architecture de 0G améliore considérablement la rentabilité en séparant le stockage et la publication des données en deux voies distinctes : la voie de stockage de données et la voie de publication de données. La Data Storage Lane gère les transferts de données volumineux, tandis que la Data Publishing Lane se concentre sur la vérification de la disponibilité des données. Cette séparation minimise la charge de travail sur chaque composant, réduisant ainsi le besoin de ressources étendues et permettant un traitement parallèle et évolutif. En utilisant le jalonnement partagé et le partitionnement des données en morceaux plus petits, nous obtenons des performances et un débit élevés sans les frais généraux typiques des solutions traditionnelles. Cette architecture nous permet de fournir une plate-forme à la fois rentable et capable de prendre en charge des applications hautes performances telles que l'IA en chaîne et la DeFi haute fréquence.


N'oubliez pas d'aimer et de partager l'histoire !


Divulgation des intérêts acquis : cet auteur est un contributeur indépendant qui publie via notre programme de blogs d'entreprise . HackerNoon a examiné la qualité du rapport, mais les affirmations contenues dans le présent document appartiennent à l'auteur. #DYOR.