paint-brush
Blockchain comme machine de vérité ultime pour l'IA basée sur GPT (ChatGPT)par@badery
3,228 lectures
3,228 lectures

Blockchain comme machine de vérité ultime pour l'IA basée sur GPT (ChatGPT)

par bader6m2022/12/13
Read on Terminal Reader
Read this story w/o Javascript

Trop long; Pour lire

Il ne fait aucun doute que l'IA changera le monde. Avec ChatGPT, il a montré au public à quel point cette technologie pouvait changer leurs moyens de subsistance du jour au lendemain. Assurer l'intégrité de l'IA est la prochaine étape. Vérifier les données qui lui parviennent, qui l'a développé et ses motivations/objectifs exacts sera crucial pour maintenir les normes éthiques et, par conséquent, la confiance du public dans ces modèles. Ça commence vraiment à ressembler à du web3 maintenant !
featured image - Blockchain comme machine de vérité ultime pour l'IA basée sur GPT (ChatGPT)
bader HackerNoon profile picture
0-item

À moins que l'on ait vécu sous un rocher littéral (et non au-dessus d'un), vous avez probablement entendu parler de ChatGPT - le système d'IA révolutionnaire et dystopique basé sur le dialogue.


Sa manière extrêmement conversationnelle pousse ses utilisateurs à ses limites.


La plupart sont impressionnés par sa capacité à écrire du code en temps réel ou à produire des essais infaillibles et originaux.


ChatGPT écrit du code en temps réel.


En un coup d'œil, ChatGPT est assez impressionnant. Bien que cette technologie existe depuis quelques années maintenant, avec même d'autres entreprises lançant des initiatives similaires dans le passé, ChatGPT a pu obtenir un million d'utilisateurs en six jours.


Du point de vue du produit, c'était certainement la preuve que ChatGPT répondait à un besoin sur le marché. Cela changera très probablement l'économie des concerts pour toujours, car cela permet essentiellement une recherche Google interactive avec des résultats beaucoup plus concis et exploitables en temps réel.


https://twitter.com/jdjkelly/status/1598021488795586561


Cependant, la conversation sur l'IA est souvent congruente avec celle de l'éthique - beaucoup ont commencé à s'interroger sur les dangers potentiels de ce modèle accessible à tous.


Comme on l'a vu dans le passé, les humains ont eu du mal à apprendre à l'IA à dire des choses qui ne devraient pas être prononcées, encore moins pensées.


Sur un plan plus philosophique, quelle est la source de vérité pour ChatGPT ?


Qu'en est-il des autres futurs systèmes basés sur GPT ?

Comment s'assurer que les biais, les ensembles de données et les paramètres sont pris en compte sans compromettre la sécurité de l'IA ?


Ces préoccupations (écrites comme des "limitations") sont en fait reconnues par OpenAI dans leur article présentant ChatGPT , cependant, aucune solution n'est présentée pour résoudre ces problèmes !

Brève description de ChatGPT

Avant de résoudre l'inévitable soulèvement des chatbots IA, permettez une brève explication de son fonctionnement réel à vol d'oiseau.


ChatGPT est basé sur GPT-3.5 - une version légèrement plus récente et meilleure de GPT-3.


GPT signifie Generative Pre-trainer Transformer 3.


« C'est un modèle de langage autorégressif qui utilise l'apprentissage en profondeur pour produire un texte de type humain. Étant donné un texte initial comme invite, il produira un texte qui continue l'invite. - GPT-3, Wikipédia .


En termes plus simples, il s'agit d'un modèle prédictif de traitement du langage spécialement formé pour produire des tests lisibles par l'homme. Cette notion est testée à l'aide du test de Turing, l'objectif étant que le texte généré par l'IA ne puisse être distingué de son homologue écrit par l'homme.


Analyse plus détaillée du fonctionnement de ChatGPT à partir d'OpenAI - https://openai.com/blog/chatgpt/


GPT doit essayer de prédire la bonne réponse. Lorsque le modèle est formé, il continue d'ajuster ses variables internes jusqu'à ce qu'il obtienne la bonne réponse.


De nombreux facteurs sont pris en compte lors de la formation du modèle, tels que le suivi de l'attention du mot - c'est-à-dire l'influence/le classement du mot dans la phrase.


Pour plus d'informations sur son fonctionnement à un niveau plus technique, lisez Les recherches d'OpenAI ici.

ChatGPT a été le premier à ouvrir véritablement cette fonctionnalité de manière conviviale au public, ce qui est à la fois fantastique et effrayant compte tenu de sa croissance parabolique.

Les dangers potentiels des modèles basés sur GPT

La plupart des problèmes liés aux IA basées sur GPT comme ChatGPT se trouvent dans cette citation :


"Au fond, GPT-3, comme d'autres modèles d'IA, n'est aussi bon que les données sur lesquelles il a été formé et les humains créent ces données. Les mêmes croyances, biais, erreurs et faussetés que nous détenons se reflètent dans les réponses de l'IA. Et puisque des outils comme ChatGPT apparaissent comme intelligents, objectifs et confiants, nous avons tendance à croire ce que ces modèles nous donnent." - L'utilisation de l'IA la plus puissante est devenue plus simple, Forbes


Le principal problème avec ces modèles est les données qu'il est alimenté. Avant qu'une IA soit rendue utile, elle doit consommer, interagir et tester des milliards de mots et de paramètres. Ces ensembles de données sont généralement filtrés et organisés pour contenir des informations spécifiques.


Dans le cas de ChatGPT, il tire ses données d'Internet - ce qui lui permet d'avoir une pléthore de solutions différentes à portée de main (une IA a-t-elle du bout des doigts ?).


Cependant, cela signifie également qu'il peut apporter certains des côtés les plus sombres d'Internet et de ses préjugés.


Le problème n'est pas avec l'IA elle-même - c'est le suivi des processus de formation et de collecte de données qui la créent. Ce n'est pas parce qu'il s'agit d'une solution *A* qu'il s'agit toujours de la *BONNE* solution ! - https://twitter.com/gregisenberg/status/1601934568570949632


Si l'on pouvait suivre et tracer, avec un certain degré de certitude et de transparence, l'historique d'un modèle de formation au fil du temps, ses sources et son parcours global, alors de bien meilleures déterminations pourraient être faites sur la confiance des résultats qu'il produit.


De cette façon, la valeur sera plus apparente dans des modèles plus ciblés qui ont un objectif, un motif et des données organisés spécifiques.


Pour être clair, OpenAI est conscient que les modèles peuvent être biaisés et qu'une source de vérité solide doit être établie à un moment donné.

Et quelle meilleure technologie pour conserver un enregistrement immuable, transparent et chronologique de la création d'une IA qu'un grand livre distribué et tolérant aux pannes ?

Utilisation d'un registre distribué pour faciliter la création d'IA


La plupart voient l'IA comme une sorte de "boîte noire" de fonctionnalités, où l'origine des données, où elles ont été collectées, dans quelles circonstances et comment elles fonctionnent restent inconnues.


Cependant, que se passerait-il si chaque fois qu'une nouvelle IA était créée, chaque processus pertinent était soumis à un grand livre pour que le public puisse le voir, afin qu'il sache exactement comment l'IA fonctionne en fonction des données fournies ?


Les chaînes de blocs sont efficaces pour conserver un enregistrement vérifiable et impartial de la vérité.


Évidemment, ce ne serait que pour les IA publiques comme ChatGPT. Tout, de l'ensemble de données aux personnes impliquées, en passant par les paramètres essentiels et tout biais potentiel, pourrait être conservé en tant que présence sur la chaîne.


Au fur et à mesure que l'IA s'entraîne et s'améliore, elle est également mise à jour en temps réel dans le grand livre. De cette façon, même les développeurs responsables de sa formation seraient en mesure d'obtenir une vue claire et chronologique de la performance exacte de l'IA en termes de performances.


Plus important encore, le registre fournirait une source directe de vérité étayée par la provenance de la création de l'IA.


En d'autres termes, nous tenons l'IA responsable depuis sa création, suivons son origine, ses motivations et comment elle a été influencée par le niveau de formation.


Cela garantirait la cohérence et la provenance des données. L'intégrité des données est au plus bas. En utilisant un système d'archivage, comme la blockchain, nous pourrions retracer chaque octet de données jusqu'à son origine pour l'IA.


Cela aiderait à identifier les biais qui peuvent être difficiles à détecter dans la boîte noire de l'IA et à empêcher la fausse propagation de données pouvant provenir d'une IA "malveillante".


Pensez-y comme une coche de vérification. Si l'IA est cochée, elle est valide. Si ce n'est pas le cas, il y a lieu de douter de sa légitimité.


Comme indiqué sur des chaînes de blocs comme Polkadot , il est également tout à fait possible de faire voter des organisations sur certaines règles et mécanismes en chaîne. Un concept similaire peut être fait pour l'IA, où des votes peuvent avoir lieu pour déterminer divers facteurs concernant sa légitimité, l'intégrité des données, etc.


Les votes concernant l'IA et son ensemble de données peuvent se produire en chaîne - même pour changer la direction ou l'influence d'une IA.


https://polkadot.network/blog/gov2-polkadots-next-generation-of-decentralised-governance/

Après tout, la qualité de ces modèles dépend de la qualité des données qui leur sont transmises.


Au fil du temps, les données pourraient devenir alambiquées. Qui contrôle la source, comment dire que la source se transforme en quelque chose qui pourrait être nocif ?


Certes, OpenAI a son API de modération - une autre IA qui détecte les choses considérées comme nuisibles, ce qui est un pas très précieux dans la bonne direction.
https://openai.com/blog/new-and-improved-content-moderation-tooling/


Cependant, même pour les preuves factuelles, c'est-à-dire l'historique, les données sur Internet doivent être vérifiées et vérifiées à plusieurs reprises.


Étant donné que de plus en plus de personnes comptent sur ces services, il sera crucial de garantir la fiabilité des informations.

Conclusion

Il ne fait aucun doute que l'IA changera le monde. Avec ChatGPT, il a montré au public à quel point cette technologie pouvait changer leurs moyens de subsistance du jour au lendemain.


Assurer l'intégrité de l'IA est la prochaine étape. Vérifier les données qui lui parviennent, qui l'a développé et ses motivations/objectifs exacts sera crucial pour maintenir les normes éthiques et, par conséquent, la confiance du public dans ces modèles.


Ça commence vraiment à ressembler à du web3 maintenant !