paint-brush
Mesurer la décentralisationpar@f1r3flyceo
402 lectures
402 lectures

Mesurer la décentralisation

par Lucius Meredith20m2023/08/07
Read on Terminal Reader

Trop long; Pour lire

Nous applaudissons le Congrès pour avoir contesté la proposition du président Gensler selon laquelle tout sauf Bitcoin est une sécurité. Cette idéologie particulière et technologiquement analphabète est une marque spéciale d'absurdités pernicieuses, elle ne nuit pas seulement aux consommateurs. Cela crée déjà une grave fuite des cerveaux d'experts, qui quittent les États-Unis pour l'Europe, le Moyen-Orient et l'Asie. Nous voulons aider leur défi robuste et à l'épreuve du temps.
featured image - Mesurer la décentralisation
Lucius Meredith HackerNoon profile picture
0-item

Tout d'abord, nous tenons à féliciter les leaders d'opinion du Congrès pour avoir pris le taureau par les cornes. La technologie sous-jacente aux actifs numériques décentralisés pose des défis importants aux cadres juridiques actuels et il est difficile de la maîtriser. Trouver un équilibre entre la protection du public – les investisseurs et les clients – tout en encourageant l'innovation n'est pas une tâche facile. Le Congrès devrait être félicité pour cet effort de bonne foi visant à trouver cet équilibre.


Cela dit, le Congrès n'a qu'un seul membre en exercice, Représentant Bill Foster (D-IL) maîtrise parfaitement les aspects techniques de la blockchain. Comme le dit le vieil adage, il est tout aussi important de bien faire les choses que de bien faire. Et pour atteindre ses objectifs déclarés, la législation proposée a besoin de quelques ajustements pour atteindre ce qu'elle cherche.


Faisons donc de notre mieux, en langage clair, pour permettre au Congrès de décoder les mystères et de repenser la législation proposée. Comme les législateurs qui ont proposé l'ambitieuse législation sur la blockchain, nous reconnaissons l'énorme potentiel des actifs numériques décentralisés et de leur technologie sous-jacente, la blockchain, pour changer le paysage commercial et social de manière très bénéfique.


La prédominance actuelle de l'architecture « Web 2.0 » est le résultat d'un simple compromis fait par le consommateur moyen. Appelons-la "grand-mère".


Grand-mère veut la facilité, la commodité et l'utilité d'avoir ses données, son contenu (tout, des photos de famille et des chansons préférées aux dossiers financiers et de santé, et plus encore) disponible numériquement, n'importe où, 24h/24 et 7j/7. Mais grand-mère ne veut pas et n'est pas équipée pour être responsable de l'entretien et de l'alimentation d'un sous-sol plein de serveurs pour garder tout ce contenu disponible et complètement privé, ou du moins sous son contrôle principal.


Alors grand-mère externalise cette responsabilité. Elle laisse ses fournisseurs de soins de santé, Google, Dropbox, Amazon et d'autres entreprises stocker et gérer ses données personnelles pour une somme modique… ou pour le privilège de lui diffuser des publicités.


Ce choix a un coût. Comme tout motard vous le dira, ce n'est pas une question de savoir si vous allez descendre, c'est une question de quand . Il est donc prudent de garder autant de contrôle que possible sur votre véhicule. De même, il ne s'agit pas de savoir si ces fournisseurs de services numériques seront piratés et si les données personnellement identifiables de grand-mère ou les vôtres seront violées et si des données très sensibles tomberont entre de mauvaises mains. C'est une question de quand.


Les gros titres faisant état de ces types de violations sont si courants que le consommateur moyen de services numériques s'y est habitué… jusqu'à ce que quelqu'un vole son identité ou facture un billet de première classe pour Cancún sur sa carte de crédit. De manière peut-être plus conséquente, le modèle économique qui sous-tend les entreprises du Web 2.0 a eu des conséquences sociales énormes et parfois néfastes.


La capacité de vendre des versions « anonymisées » de données personnelles agrégées est essentielle pour les résultats des fournisseurs de services de données. Pour paraphraser la princesse mariée, "je ne pense pas que anonyme signifie ce que vous semblez penser que cela signifie."


Les bouffonneries bien documentées de Cambridge Analytica exploitant les données sur nous que Facebook a mises à leur disposition, et, plus récemment, les bouffonneries de Twitter ne sont que la pointe de l'iceberg. Ces abus ont suscité l'inquiétude des usagers et des plus hautes instances gouvernementales.


Peut-être plus important encore, les fournisseurs de données, c'est-à-dire la base de consommateurs, ne se sont jamais vu offrir une part des revenus de la vente ou de l'utilisation de leurs données. Et si Big Tech offrait aux consommateurs la possibilité de participer à cette source de revenus ?. À l'exception partielle de la monétisation des chaînes de contenu, comme YouTube, il s'agit d'un potentiel économique largement inexploité.


L'exploiter nécessite un changement d'état d'esprit, ainsi qu'un changement de base technologique. La législation omnibus à l'étude peut être adaptée pour permettre ce changement. Donner aux utilisateurs une part du flux de revenus en accordant des droits de propriété intellectuelle similaires au droit d'auteur - la propriété de leurs propres données personnelles - pourrait être très, très populaire auprès des électeurs tout en offrant des incitations constructives pour le développement de la technologie.


À mesure que la technologie des services décentralisés de gestion des actifs numériques évolue, le Congrès peut offrir de nouvelles options aux consommateurs. Au lieu de confier nos données personnelles à un tiers, comme Google, nous pouvons utiliser une infrastructure décentralisée pour les gérer… sans avoir à avoir un sous-sol plein de serveurs et autre matériel.


Dans la base technologique d'actifs numériques décentralisée d'aujourd'hui, cette proposition est largement limitée aux données financières. Pourtant, bientôt, très bientôt, à mesure que la technologie évoluera, elle s'appliquera de plus en plus à toutes les données.


Grand-mère pourra stocker en toute sécurité et efficacement ses dossiers de santé privés sur un réseau public qui n'est pas géré ou contrôlé par le cabinet de son médecin, son hôpital ou sa compagnie d'assurance maladie. Au contraire, de nombreuses parties, appelées mineurs ou validateurs, fournissent au réseau des ressources informatiques. Ils gagnent de l'argent en faisant ça. Et les données de grand-mère seront protégées par sa ou ses clés privées et des garanties cryptographiques considérablement plus solides.


Il sera uniquement sous le contrôle de ses agents désignés. En fait, ses données seront opaques pour les fournisseurs de services réseau tandis que son sous-sol restera sans serveur. À moins que grand-mère décide qu'elle veut participer au nouveau moteur économique offert par la décentralisation du réseau et maintenir sa propre ferme de serveurs. Dans les deux cas, elle appréciera la possibilité de garder ses secrets pour elle-même, ou de les anonymiser et de les "louer" à ceux qui souhaitent les exploiter commercialement.


Cette reconfiguration de qui dirige et contrôle le réseau ne changera pas les choses uniquement pour grand-mère. Cela change les choses pour chaque fournisseur numérique, de Facebook, Twitter et Google à Aetna, Blue Cross Blue Shield et Regents. Cela donne aux consommateurs plus de choix et plus de contrôle. Et c'est un scénario gagnant-gagnant, offrant également aux entreprises technologiques du Big Data de toutes nouvelles opportunités économiques à exploiter.


C'est l'une des raisons pour lesquelles nous applaudissons le Congrès pour avoir contesté la proposition du président Gensler selon laquelle tout sauf Bitcoin est une sécurité. Cette idéologie particulière et technologiquement analphabète est une marque spéciale d'absurdités pernicieuses, elle ne nuit pas seulement aux consommateurs. Cela crée déjà une grave fuite des cerveaux d'experts, qui quittent les États-Unis pour l'Europe, le Moyen-Orient et l'Asie.


En clair, la SEC génère des milliards, voire des billions de dollars de richesse à l'étranger. Le président Gensler, que ce soit par négligence ou par cynisme, déporte des dizaines ou des centaines de milliers d'emplois bien rémunérés, à l'opposé de la politique déclarée de l'administration Biden. Une mauvaise politique réglementaire détruit de vastes opportunités économiques tout en détruisant la supériorité technologique américaine.


Pour préserver la richesse, les opportunités, les bons emplois et la supériorité technologique basée sur les technologies émergentes telles que la blockchain, le Congrès doit plutôt élaborer le mécanisme juridique sur la mécanique de cette technologie. Dans cet article, nous nous concentrons sur certains des problèmes fondamentaux liés à la définition proposée de la décentralisation et faisons quelques propositions modestes sur la manière de l'adapter pour en réaliser pleinement le potentiel.


Plus précisément, nous expliquerons pourquoi l'utilisation de la règle de répartition des actifs proposée dans le projet de loi comme l'un des critères de détermination de la décentralisation n'est ni pratique ni n'atteindrait les objectifs déclarés des législateurs. En outre, nous discuterons de certains des défis liés à l'utilisation des modèles de gouvernance logicielle proposés comme critère de détermination de la décentralisation. Les critères législatifs initiaux suggèrent une incompréhension fondamentale du fonctionnement des logiciels.


Facilement réparé!


Nous insisterons également pour l'inclusion d'une clause réaliste de sphère de sécurité, une disposition facile à formuler actuellement absente de la législation proposée. De nombreuses sociétés de blockchain ont travaillé de bonne foi tout en endurant l'ambiguïté réglementaire, mises en danger par une SEC trop étendue. Les efforts de bonne foi pour placer les États-Unis à la pointe de ce développement technologique devraient être récompensés et non punis.


Au contraire, pour rétablir un climat raisonnable pour les entrepreneurs et les développeurs - pour endiguer la fuite des cerveaux, qui devient rapidement un déluge aux proportions bibliques - nous devons fournir des critères raisonnables selon lesquels diverses entreprises commerciales peuvent être débarquées plutôt que déportées.


Enfin, dans ce même esprit, nous souhaitons souligner à quel point il est important que les entrepreneurs ne se contentent pas de se sentir mais soient effectivement inclus dans le discours politique. Actuellement, bon nombre, peut-être la plupart, de nos innovateurs les plus précieux ont la nette impression que l'établissement des politiques est une discussion réservée aux politiciens et aux bureaucrates. Cela a incité de nombreux acteurs clés à voter avec leurs pieds et à emmener leurs affaires à Dubaï, à Zoug, à Berlin ou à Singapour.


Démontrer que le processus politique n'est pas seulement ouvert à leur contribution, mais que les législateurs recherchent activement l'intelligence et la sagesse des personnes qui ont réellement fait le travail et récolté les fruits de l'expérience - démontrant que cela contribuera grandement à apporter la valeur expatriée retour sur le sol américain.

Définition proposée de la décentralisation

Le projet de loi actuel tente de fournir des observables pratiques pour déterminer si un actif numérique décentralisé est, en fait, décentralisé. L'un des observables proposés est la répartition des actifs. Le projet de loi propose une règle de 20 %, arguant que pour être considéré comme décentralisé, un actif numérique ne peut pas être concentré entre les mains de quelques-uns. Au lieu de cela, aucun détenteur de l'actif ne peut détenir plus de 20 % de l'actif.


Cela sonne bien en théorie. Cela ne fonctionne pas et ne peut pas fonctionner dans la pratique.


Défis à la règle des 20 %

Adresses ≠ Identité

Les adresses sur une blockchain ne sont pas identiques à l'identité. C'est vrai pour Bitcoin. C'est vrai pour Ethereum. En fait, c'est vrai pour pratiquement toutes les grandes chaînes de blocs. Mais, puisque tel est le cas, il est impossible de discerner si une personne contrôle plus de 20 % de la répartition totale des actifs. Déterminer la répartition des actifs est de toute façon un problème difficile, pour lequel les experts en criminalistique financière sont extrêmement bien payés, car les gens ont souvent plusieurs agents économiques, des sociétés fictives aux sociétés holding, qui gèrent les actifs en leur nom.


Mais attendez! Ça s'empire! Au fur et à mesure que la technologie de la connaissance zéro mûrit, enfermer des données transactionnelles privées dans une sécurité pratiquement impénétrable, savoir qui contrôle les actifs sera pratiquement impossible.


Au-delà de la discussion sur l'impraticabilité d'une telle règle de répartition des actifs, se pose la question des valeurs. L'auteur principal de cet article est décidément penché à gauche. Pourtant, même lui est mal à l'aise d'imposer une politique de répartition des actifs. Est-ce vraiment un marché libre si le gouvernement détermine la répartition des actifs ?


L'implication centralisée de l'État dans la distribution des actifs ressemble-t-elle à du capitalisme ? Cette règle superficiellement innocente est un grand bond en arrière vers l'économie centrale de commandement et de contrôle qui a échoué, de manière spectaculaire et répétée, au XXe siècle et continue d'échouer aujourd'hui.


On pourrait penser que les républicains, au moins, sauraient mieux.


Transactions qui créent des violations transitoires


Considérons, par exemple, une situation dans laquelle une cohorte de détenteurs d'actifs numériques cherchent tous à quitter leurs positions, chacun pour ses propres raisons. Il se pourrait qu'un seul acheteur soit disposé à les racheter tous, non pas pour des raisons de contrôle mais pour des motivations purement financières.


Si la position initiale de l'acheteur combinée à la propriété ajoutée achetée à la cohorte atteint plus de 20 %, tout à coup, les propriétés qu'il achète se transforment comme par magie de propriété en sécurité. Mais, supposons que, comme dans le secteur bancaire en 2008, c'est le gouvernement américain qui intervient pour soutenir un actif « trop gros pour faire faillite », cet acte convertit-il l'actif en titre ?


Et si l'action n'était qu'une mesure temporaire et que le poste était rapidement liquidé ? Son statut redevient-il un non-sécurité ? Devrait-il? Qu'en est-il des métiers transitoires ? Que se passe-t-il si un détenteur d'actifs ne dispose que de 20 % de la distribution pendant quelques secondes avant de vendre une partie de sa position ? Cela entraîne-t-il la conversion de l'actif en titre ? Que diriez-vous de quelques minutes ? Quelques jours? Où est la ligne de partage ? Alors que le gouvernement est en train de tracer de telles lignes, dans ce cas, les lignes sont purement arbitraires… et capricieuses. Pas une bonne politique.


Plus important encore, qui veut vraiment que le gouvernement s'immisce dans ces dynamiques de marché ? Mao (le Grand bond en avant , la famine la plus meurtrière de l'histoire) et l'Holodomor de Staline a tué d'innombrables millions de personnes avec des politiques économiques centralisées. Qui veut faire un si grand bond en arrière ?

Baleines sur les réseaux communs

Il y a certainement des cohortes de baleines sur Bitcoin qui contrôlent plus de 20 % de ce réseau. Comme mentionné précédemment, il est pratiquement impossible de savoir qui contrôle ces adresses. De plus, s'ils se déplacent en bloc, est-ce important s'il s'agit de personnes différentes ?


Enfin, il est possible que celui qui contrôle les portefeuilles du mystérieux créateur de Bitcoin, Satoshi Nakamoto, contrôle environ 63 % de cette blockchain. Ainsi, selon les définitions du projet de loi Bitcoin, le seul actif numérique dont Gary Gensler est certain n'est pas une sécurité, serait une sécurité.

Nous sommes tout à fait favorables à la fourniture au président Gensler d'un test de santé mentale indispensable sous la forme d'un cadre conceptuel sensé. Une définition ajoutant Bitcoin à la liste des victimes du djihad du président Gensler n'en fait pas partie.

Considérez la ressource informatique comme une marchandise et non comme un pourcentage

Pour atteindre ses très bons objectifs, les législateurs devraient penser à la marchandise et non au pourcentage. Sur les marchés actuels et envisagés, les actifs numériques ne sont pas comme des substances programmées ou toxiques, dont la distribution doit être soigneusement contrôlée pour protéger le public. Ils ne s'apparentent pas non plus à des marchandises dont les prix pourraient être contrôlés, comme le loyer ou le carburant, dont la distribution est également souvent gérée pour le bien public.


Dans la plupart des cas, les actifs numériques ne sont en réalité que des proxys pour les ressources informatiques. La puissance de calcul ne manque pas, avec des téléphones intelligents dans les poches de chacun, des ordinateurs portables sur le bureau de chacun et des centres de données de la taille des villes qui entourent le monde. Dans de telles circonstances, lorsque le produit est facilement disponible, rien ne justifie le rationnement. Et en tant que telle, la répartition des actifs n'est tout simplement pas un bon signal de décentralisation.


Au lieu de cela, les ressources de calcul elles-mêmes qui composent le réseau desservant les actifs numériques sont un signal un peu meilleur, bien que loin d'être parfait, comme nous l'avons expliqué dans un autre article . L'observable saillant est : qui contrôle les mineurs et les validateurs qui rendent le réseau possible. Si le contrôle de ces programmes et des machines qu'ils exécutent sont concentrés entre les mains d'une seule entité, alors le réseau n'est pas décentralisé.


Par exemple, si Google contrôlait tous les validateurs sur un fork du réseau Ethereum et que tous les serveurs exécutant ces programmes s'exécutaient sur Google Cloud Platform, alors ce fork d'Ethereum ne peut tout simplement pas être qualifié de décentralisé. Si, en revanche, nous avons trouvé une saine diversité de validateurs, gérés par une communauté relativement importante, dont certains étaient exécutés sur des machines provisionnées sur des fournisseurs de cloud et dont certains étaient exécutés sur des machines entretenues et gérées par des particuliers et des entreprises, alors il serait correct d'appeler cette fourchette décentralisée.


De la même manière, les gens parlent de la concentration de la puissance de hachage du réseau Bitcoin. Si les mineurs et les serveurs qui les exécutent sont sous le contrôle d'une communauté relativement petite, alors nous considérons ce réseau comme centralisé. Ce sujet a fait l'objet de nombreuses discussions lorsque les sociétés minières chinoises contrôlaient environ 65 % du hashrate Bitcoin.


Ce qui brouille les cartes pour une mesure comme celle-ci, c'est que les actifs numériques peuvent être rendus indépendants de la plate-forme ou du réseau . De nombreux protocoles de blockchain, tels que RChain, ont montré que les actifs initialement développés sur le réseau Ethereum peuvent être migrés avec succès vers des actifs sur une autre plate-forme de couche 1. De plus, c'est, dans un certain sens, l'essence des efforts d'interopérabilité de DeFI et de protocole.


Ils fournissent des mécanismes pour libérer les actifs numériques d'être liés à un réseau donné. Cependant, lorsque les chemins de migration des ressources d'un réseau à un autre sont limités ou inexistants et que les ressources de calcul réelles du réseau sont contrôlées par une petite communauté, nous pouvons appeler ces ressources centralisées en toute sécurité.


Une politique efficace devra se concentrer sur cela en tant qu'observable pratique pour mesurer la décentralisation d'un actif numérique. C'est ce que les technorati regardent, et pour cause.

Les défis du contrôle du code


En complément de l'infrastructure physique nécessaire pour faire fonctionner un réseau qui dessert un actif numérique, il y a le logiciel qui s'exécute sur le réseau, fournissant la logique de fonctionnement de l'actif numérique. Encore une fois, c'est une tendance naturelle à regarder comment ce logiciel est contrôlé comme un observable pour la décentralisation du réseau. Malheureusement, le code, même le code open source, s'exécute à des angles étranges par rapport à cette inclinaison.

Le logiciel évolue

Nous sommes au tout début de cette révolution technologique. Du coup, une chose que l'histoire nous enseigne, c'est que plus de 90% du code déployé est probablement faux. Ce fait est plus important pour les développements de conception ou d'architecture non encore envisagés et les améliorations dont nous pouvons être sûrs qu'ils seront découverts, que pour de nombreux bogues latents cachés dans le code, qui seront également inévitablement découverts. Considérez les correctifs de bugs régulièrement publiés par les vénérables Microsoft, Apple, ainsi que les communautés Linux !


En tant que tel, nous ne pouvons pas verrouiller le code sous-jacent à un actif numérique. Nous devons lui donner une marge d'amélioration, tout comme nous devons donner à des produits comme l'iPhone ou la Tesla une marge d'amélioration. La stagnation technique, c'est la mort, surtout au début d'un paradigme technologique. Le véritable marché faustien n'était pas un échange de l'âme de Faust contre la connaissance. Faust donnerait son âme à Méphistophelse s'il disait du moment: "Verweile doch, du bist so schön," " Mais reste, tu es si belle!"


Alors, qui peut apporter ces améliorations ? Comment les modifications sont-elles acceptées et déployées sur le réseau ? Quel est le processus par lequel les mineurs indépendants et les validateurs adoptent ces changements ? Plus précisément ici, pouvons-nous faire une observable pour la décentralisation à partir de la taille de la communauté qui peut modifier le code, ou le processus par lequel un changement proposé est accepté ?


Le logiciel est fragile


Comme tous les développeurs le savent, les logiciels sont fragiles. Changer un seul caractère, disons un signe plus en signe moins, dans une seule ligne de code peut entraîner un comportement radicalement différent du logiciel. Un tel changement pourrait se cacher dans des changements autrement inoffensifs dans une demande d'extraction vers un référentiel open source. Cela rend tout contributeur potentiellement responsable du comportement de l'ensemble du réseau.

La modularité comme antifragilité

Une défense contre cette fragilité est une astuce que les développeurs de logiciels ont apprise de la Nature : la modularité. Tout comme le matériel, les logiciels assemblés à partir de composants relativement isolés et quelque peu redondants sont moins fragiles (antifragile). L'isolation des composants tend à limiter un mode de défaillance à un sous-ensemble plus petit de composants.


Évidemment, si tout le réseau perd son alimentation, tous les composants logiciels tombent en panne ensemble. Cependant, un problème dans la logique d'un composant est moins susceptible d'être un problème dans un autre, surtout s'ils partagent peu ou pas du même code. De plus, si les composants sont rendus redondants, l'un peut échouer tandis qu'un autre prend sa place. Cela signifie qu'une erreur, voire un certain nombre d'erreurs, peut se manifester et que le système peut encore boiter.


Ainsi, même si cela peut surprendre les personnes qui ne sont pas des développeurs de logiciels, un précurseur de la décentralisation d'un actif numérique est la modularité de l'architecture logicielle qui le sous-tend. En particulier, la modularité rend non seulement le système en cours d'exécution antifragile, mais elle permet à différentes communautés de travailler indépendamment sur des composants relativement isolés.


Prenons un exemple. Un modèle de conception commun pour une architecture de blockchain de contrats intelligents se compose de quatre composants.


  • Découverte de nœuds et couche de communication (comme Kademlia)
  • Mécanisme de stockage (tel qu'un magasin clé-valeur)
  • Mécanisme de calcul (tel que l'EVM)
  • Mécanisme de consensus (tel que Casper ou preuve de travail)


Chacun d'eux est relativement isolé dans sa fonction. Par exemple, on peut, en principe et en pratique, échanger une implémentation d'un magasin clé-valeur (comme LMDB) pour un autre (disons Reddis) - ou même un type de magasin (disons clé-valeur) pour un autre (disons relationnel ) – sans différence notable dans le comportement du réseau. De même, diverses chaînes de blocs, telles que RChain, sont conçues avec l'objectif de conception explicite que le mécanisme de consensus puisse être remplacé. En fait, cette capacité à échanger des composants est la définition même de la modularité.


Une telle modularité limite l'exposition à la dépendance vis-à-vis d'un seul composant et de la communauté qui le produit. De la même manière qu'un constructeur automobile préfère avoir plusieurs fournisseurs de pneus, afin de ne pas être redevable à un seul fournisseur, les bases de code modulaires peuvent s'approvisionner auprès de différents fournisseurs des composants de la conception modulaire auprès de différents fournisseurs, comme dans l'exemple de l'échange le composant de stockage.


Bien sûr, une grande partie de cela relève simplement du bon sens, et nous sommes d'accord. Nous pensons que la législation proposée devrait avoir une bonne dose de bon sens et inclure des mesures de modularité du logiciel sous-jacent à un actif numérique dans le cadre des critères de décentralisation.

La communauté comme antifragilité


Une autre défense essentielle contre la fragilité inhérente des logiciels est la communauté. Aucune modification proposée au code ne va sans examen par les pairs. Loi de Linus : avec de nombreux globes oculaires, tous les insectes sont superficiels .” Cela crée tout un complexe de tensions : l'examen par les pairs ralentit le développement et la réponse aux erreurs critiques ; une communauté de pairs est souvent petite ; trop de cuisiniers gâchent la soupe.


Un développement récent dans les projets open source en général, et dans les projets blockchain en particulier, est un processus d'amélioration communautaire. Il s'agit d'un processus de gouvernance du code par lequel une proposition d'amélioration de la base de code peut être soumise ; le pour et le contre délibéré ; et une décision prise quant à savoir si l'amélioration doit être développée, par qui et quand.


Un tel processus peut être souscrit par une communauté de taille relativement décente. Les questions d'accréditation des participants ressortent dans le flot du débat public. Sur Internet, personne ne se soucie de savoir si votre chien a trouvé le correctif. (Twitter va devenir fou, mais c'est une toute autre affaire.)


Une mesure de la maturité et de la décentralisation du logiciel sous-jacent à un actif numérique est de savoir s'il existe un processus d'amélioration communautaire bien établi à la fois pour les modifications à long terme de la base de code et pour les bogues immédiats et critiques. De plus, la taille de la communauté qui participe à ces processus est une mesure de la décentralisation.

Forking et licences

L'un des développements les plus importants dans la gestion du code, et du code open source en particulier, est la pratique du forking. Essentiellement, forker consiste à faire une copie de la base de code à un stade particulier de son développement et à apporter des modifications à partir de cet état. Lorsqu'une communauté de développeurs particulière estime que l'évolution du code serait mieux servie par une approche différente, elle en fait une copie et poursuit cet arc de développement indépendamment de l'évolution de la base de code d'origine.


Cela s'apparente à un équivalent logiciel de l'hypothèse des mondes multiples en mécanique quantique, sauf que rien n'empêche les fourches de fusionner à l'avenir. Donc, dans ce sens, cela pourrait ressembler davantage à des ruches d'abeilles lorsqu'une nouvelle reine émerge et emmène environ 10 000 de la population de la ruche avec elle pour fonder une nouvelle ruche. Génétiquement, les « fourches » de la ruche peuvent fusionner plus tard lors du soi-disant vol des reines.


Mis à part les analogies avec le monde physique, l'importance de la bifurcation pour la décentralisation est primordiale. Le fait que les projets open source puissent être bifurqués signifie que le code n'est jamais sous le contrôle central d'une seule communauté, à moins qu'il ne soit encombré par des licences. Ainsi, l'une des mesures les plus importantes de la décentralisation est la licence de la base de code.

Safe Harbor

Comme nous l'avons mentionné dans l'introduction, de nombreuses entreprises ont travaillé de bonne foi pour créer des entreprises américaines à la pointe de cette technologie. LBRY en est un. RChain en est une autre. Pourtant, ces entreprises, parmi tant d'autres, ont souffert de l'ambiguïté réglementaire, de l'ignorance arbitraire de l'application et de l'incompréhension de la technologie par les régulateurs.


Nous croyons que ces types d'entreprises et leurs entrepreneurs et ingénieurs devraient être traités comme des leaders civiques, et non comme des prédateurs. Plus précisément, cela signifie qu'il est un impératif pratique d'offrir une clause de refuge aux entreprises pour parvenir à la décentralisation de leur réseau afin d'éviter que leur produit de travail en développement ne soit réglementé comme des valeurs mobilières. Sans havre sûr, aucun navire ne peut être lancé et l'innovation numérique s'arrêtera complètement.


Trois ans avant la décentralisation, c'est tout simplement trop court pour les nouvelles technologies

L'avant-projet de loi de Gillibrand et Lumis offrait en effet une clause de sphère de sécurité. Cependant, il ne prévoyait qu'une fenêtre de 3 ans pour réaliser la décentralisation. Cela ne peut pas et ne fonctionne pas pour les entreprises qui poursuivent des travaux d'ingénierie et de développement de protocoles plus importants.


Alors qu'Ethereum a été développé en moins de trois ans, Bitcoin en a pris plus. Les deux sont paralysés par des défauts de conception insurmontables qui les empêchent de se développer. De plus, le protocole Bitcoin a des inefficacités énergétiques bien documentées qui ont des impacts environnementaux connus. Les entreprises qui poursuivent la voie rationnelle pour fournir des conceptions évolutives et durables ont besoin de plus de temps pour faire fructifier la technologie et la décentraliser.


Sur la base d'une vaste expérience sur le terrain, nous recommandons 10 ans comme délai raisonnable pour parvenir à la décentralisation. Bien sûr, pendant cette période, il est raisonnable d'exiger que des jalons clés soient atteints pour maintenir le statut de sphère de sécurité. Bon nombre de ces jalons peuvent être tirés des points discutés ci-dessus, tels que l'adoption de licences appropriées, l'élaboration d'un processus d'amélioration communautaire, etc.


Importance d'inclure les commentaires d'entrepreneurs et de développeurs expérimentés

Nous félicitons le Congrès d'avoir invité des représentants de l'industrie, comme le PDG d'Avalanche, à témoigner et à donner leur point de vue. Cela est nécessaire mais insuffisant pour endiguer le flux de talents et de valeur des États-Unis vers les juridictions étrangères. Il doit y avoir des concessions plus solides.


Les commentaires récemment sollicités sur les aspects pratiques de la législation proposée doivent être pris au sérieux. Un forum continu solide doit être établi pour une collaboration privée-publique continue

Conclusions et travaux futurs

Dans le format d'article standard, nous tirerions quelques conclusions et indiquerions ensuite d'éventuels travaux futurs. Cependant, nous voulons laisser aux législateurs un énoncé clair de nos commentaires sur le projet de loi comme la dernière chose qu'ils ont lue. Par conséquent, avant de fournir cette déclaration, nous voulons préfigurer les arguments d'un futur article concernant un problème fondamental dans la conception des actifs numériques.

Les actifs numériques doivent être limités dans le temps

Le problème est que les actifs numériques représentent principalement des ressources informatiques. Plus précisément, ils représentent les cycles du processeur et la capacité de stockage. Cependant, ces ressources ne peuvent pas, en pratique, être fournies juste à temps. C'est pourquoi les fournisseurs de cloud adoptent les modèles de tarification qu'ils utilisent. Avoir des cycles de processeur et une capacité de stockage à portée de main coûte de l'électricité (ainsi que le loyer pour l'entreposage des appareils informatiques, etc.) même lorsqu'il n'y a pas de transactions réseau qui pourraient compenser les coûts des services publics .


Pensez à toutes les adresses sur les réseaux Bitcoin et Ethereum qui sont dans un modèle HODLing. Les actifs numériques qu'ils contiennent ne génèrent pas de frais de transaction. Pourtant, les ressources réseau nécessaires à la maintenance de ces actifs sont toujours consommées. Finalement, la valeur de toute compensation perçue à l'origine pour la distribution de ces actifs sera dépassée par les coûts d'électricité et autres pour entretenir le réseau.


En conséquence, à la limite, il arrive un moment où tout paiement initial pour un actif numérique ne compense pas le coût d'avoir les cycles de processeur et la capacité de stockage à portée de main. En tant que tels, les actifs numériques sont en fait et en fait limités dans le temps dans leur valeur. Tout comme une orange ou un boisseau de blé, les actifs numériques deviennent obsolètes.


Les fournisseurs de réseau d'une industrie adjacente reconnaissent depuis longtemps ce fait à propos de ressources réseau similaires. C'est pourquoi les minutes de téléphone sont mesurées en temps et les compagnies d'électricité facturent en kilowattheures. Une grande partie de l'engouement actuel pour la spéculation associé aux jetons numériques, qui a causé tant de chagrin aux investisseurs et tant de maux de tête aux régulateurs, s'éteindrait tout simplement si la nature limitée dans le temps de ces actifs était reconnue.


Si ce fait était reconnu et pris en compte dans l'économie du réseau, cela changerait complètement le paysage. Personne n'investit dans les minutes téléphoniques, ou du moins pas avec une stratégie HODL. Nous reconnaissons qu'il faut beaucoup de temps pour que les marchés des actifs numériques prennent conscience de ces faits. Pourtant, s'ils doivent être économiquement durables, ils s'éveilleront aux véritables impératifs du marché


En attendant, nous proposons des modifications au projet de loi qui feront plus de bien que de mal et qui ne devront pas être annulées en moins d'une génération.


Résumé des modifications proposées à la législation

  • Supprimez la règle de répartition des actifs.
  • Instanciez une règle de décentralisation des ressources de calcul réseau.
  • Instancier la ou les règles d'indépendance du réseau de ressources numériques.
  • Adopter des mesures de modularité logicielle.
  • Adopter des mesures d'octroi de licences de logiciels.
  • Adopter des mesures de processus d'amélioration communautaire.




Mesurer la décentralisation

Commentaires sur le projet de loi sur les actifs numériques décentralisés


Par,

Lucius Grégory Meredith

Ralph Benko

21 juin 2023



Lucius Gregory Meredith, fondateur et PDG de F1R3FLY.io, est un mathématicien, le découvreur du rho-calcul, un co-inventeur de l'OSLF (Operational Semantics in Logic Form) et l'inventeur de l'approche ToGL de la théorie des graphes.


Ralph Benko, ancien fonctionnaire de la Maison Blanche, co-fondateur et avocat général de F1R3FLY.io, est auteur ou co-auteur de plusieurs livres acclamés par la critique, notamment, avec Dawn Talbot, Redéfinir l'avenir de l'économie : blocs de gouvernance et architecture économique .