L’IA est souvent saluée (
L’argument central de l’article est que notre utilisation croissante de systèmes d’IA tels que les modèles linguistiques et les bases de connaissances pourrait conduire à une menace au niveau de la civilisation que l’auteur qualifie d’« effondrement des connaissances ». À mesure que nous dépendons d’IA formées sur des sources d’information conventionnelles et traditionnelles, nous risquons de perdre le contact avec les idées sauvages et peu orthodoxes en marge de la connaissance – les mêmes idées qui alimentent souvent les découvertes et les inventions transformatrices.
Vous pouvez trouver mon analyse complète de l'article, quelques questions de contrepoint et la ventilation technique ci-dessous. Mais d’abord, examinons ce que signifie réellement « l’effondrement des connaissances » et pourquoi c’est si important…
Le
En termes simples, l’effondrement des connaissances est ce qui se produit lorsque l’IA rend les connaissances conventionnelles et les idées communes si faciles d’accès que les connaissances non conventionnelles, ésotériques et « à longue traîne » sont négligées et oubliées. Il ne s’agit pas de nous rendre plus stupides en tant qu’individus, mais plutôt d’éroder la saine diversité de la pensée humaine.
Peterson soutient qu’il s’agit d’une menace existentielle pour l’innovation, car c’est en interagissant avec une grande variété d’idées, en particulier celles qui ne sont pas traditionnelles, que nous établissons de nouvelles connexions conceptuelles et des sauts mentaux. Les avancées les plus marquantes dans les domaines de la science, de la technologie, de l’art et de la culture proviennent souvent de la synthèse de concepts très différents ou de l’application de cadres d’un domaine à un autre. Mais si l’IA nous amène à puiser dans une tranche toujours plus étroite de connaissances « normales », ces étincelles créatives deviennent de plus en plus improbables. Notre intelligence collective se retrouve piégée dans une chambre d’écho conformiste et stagne. À long terme, la portée de l’imagination humaine se réduit pour s’adapter au régime d’informations limité optimisé par nos outils d’IA.
Pour illustrer cela, imaginez si toutes les suggestions de livres provenaient d’une IA formée uniquement sur les titres grand public les plus populaires. Les genres marginaux et les sujets de niche disparaîtraient avec le temps, et le monde littéraire serait coincé dans un cycle d’œuvres dérivées et répétitives. Fini les idées révolutionnaires résultant du mélange d’influences extrêmement différentes.
Ou imaginez un scénario dans lequel les scientifiques et les inventeurs tirent toutes leurs connaissances d’une IA formée sur un corpus de recherches existantes. Les axes de recherche les plus conventionnels et les plus répandus sont renforcés (étant fortement représentés dans les données de formation), tandis que les approches peu orthodoxes qui conduisent à de véritables changements de paradigme dépérissent. Des frontières entières de la découverte restent inexplorées parce que nos œillères d’IA nous amènent à les ignorer.
C’est le risque insidieux que Peterson voit dans l’externalisation de plus en plus de notre fourniture d’informations et de notre conservation des connaissances vers des systèmes d’IA qui valorisent les données grand public. La diversité même de pensée nécessaire à l’humanité pour continuer à faire de grands progrès créatifs s’érode progressivement, engloutie par l’attraction gravitationnelle du conventionnel et du quantitativement populaire.
Pour étudier plus en détail la dynamique de l’effondrement des connaissances, Peterson présente un modèle mathématique montrant comment le rétrécissement des sources d’information induit par l’IA pourrait s’aggraver d’une génération à l’autre.
Le modèle imagine une communauté d’« apprenants » qui peuvent choisir d’acquérir des connaissances en échantillonnant soit 1) la véritable distribution complète de l’information à l’aide de méthodes traditionnelles, soit 2) un processus basé sur l’IA à prix réduit qui échantillonne à partir d’une distribution plus étroite centrée sur l’information dominante.
Peterson simule ensuite la façon dont la « répartition globale des connaissances publiques » évolue sur plusieurs générations selon différents scénarios et hypothèses.
Quelques conclusions clés :
Lorsque l’IA offre aux apprenants une réduction de 20 % des coûts de l’information grand public, la répartition des connaissances publiques se révèle 2,3 fois plus asymétrique par rapport à une base de référence sans IA. Les connaissances marginales sont rapidement dépassées.
L'interdépendance récursive entre les systèmes d'IA (par exemple, une IA qui apprend des résultats d'une autre IA, etc.) accélère considérablement l'effondrement des connaissances au fil des générations. Les erreurs et les préjugés en faveur des conventions s’aggravent à chaque étape.
Pour compenser l’effondrement, il faut inciter très fortement les apprenants à rechercher activement des connaissances marginales. Ils doivent non seulement reconnaître la valeur d’informations rares, mais aussi faire tout leur possible pour les acquérir à leurs dépens.
Peterson relie également son modèle à des concepts tels que les « cascades d’informations » dans la théorie de l’apprentissage social et aux incitations économiques pour les entreprises d’IA à donner la priorité aux données les plus commercialement applicables. Tout cela suggère de fortes pressions vers le conventionnel dans un écosystème de connaissances axé sur l’IA.
Les arguments de Peterson sur l’effondrement des connaissances sont philosophiquement provocateurs et techniquement cohérents. Le modèle formel du document fournit un cadre utile pour analyser le problème et envisager des solutions.
Cependant, j’aurais aimé voir des preuves plus directes et concrètes de ces dynamiques en action, au-delà d’une simple simulation mathématique. Des mesures empiriques permettant de suivre la diversité des connaissances au fil du temps pourraient aider à tester et quantifier les principales affirmations. Le document aborde également peu les contre-arguments potentiels.
Quelques questions clés ouvertes dans mon esprit :
L’accès élargi à la connaissance par l’IA ne peut-il pas encore être un net positif en termes d’innovation, même si cela biaise quelque peu les choses vers les conventions ? N’est-il pas plus important de réduire les obstacles à l’apprentissage ?
Quelles politiques collectives, incitations ou architectures de choix pourraient contribuer à compenser l’effondrement des connaissances tout en préservant les gains d’efficacité des outils de connaissance de l’IA ? Comment pouvons-nous fusionner l’intelligence artificielle avec des informations complètes ?
Les incitations économiques des entreprises d’IA pourraient-elles évoluer au fil du temps pour accorder davantage de valeur aux données rares et aux cas extrêmes à mesure que le savoir général se banalise ? La dynamique du marché pourrait-elle réellement encourager la diversité ?
Les solutions proposées telles que la réservation des données de formation en IA et l'engagement individuel dans la recherche de connaissances marginales ne me semblent que partiellement efficaces. Résoudre ce problème semble nécessiter une coordination au niveau social et institutionnel, et pas seulement des choix individuels. Nous avons besoin de mécanismes partagés pour valoriser et préserver activement ce qui n’est pas conventionnel.
Je suis également curieux de savoir quel rôle les bases de connaissances décentralisées et ouvertes pourraient jouer comme contrepoids au rétrécissement induit par l’IA. Des initiatives comme Wikidata,
En fin de compte, l’article de Peterson est un puissant avertissement sur les dangers cachés qui se cachent dans notre précipitation à faire de l’IA le médiateur de la connaissance humaine, même pour des gens comme moi qui sont très pro-IA. Dans un monde remodelé par l’intelligence artificielle, préserver la diversité chaotique et indisciplinée de la pensée est un impératif pour la créativité et le progrès continus de l’humanité.
Nous pourrions être intelligents en concevant de manière proactive nos outils de connaissances en IA pour favoriser le non conventionnel tout en fournissant efficacement le conventionnel. Nous avons besoin de mesures de protection et d’incitations solides pour rester connectés à l’étrangeté en marge. Ne pas le faire risque d’enfermer notre esprit collectif dans une bulle conformiste de notre propre conception.
Alors qu’en pensez-vous : êtes-vous préoccupé par l’effondrement des connaissances dans une culture axée sur l’IA ? Quelles stratégies proposeriez-vous pour l’éviter ? Faites-moi part de vos impressions dans les commentaires !
Et si cette introduction a piqué votre intérêt, envisagez de devenir abonné payant pour obtenir une analyse complète et soutenir mon travail visant à clarifier les problèmes critiques de l'IA. Si vous partagez ma conviction que lutter contre ces idées est essentiel pour notre avenir créatif, partagez cet article et invitez d’autres personnes à la discussion.
La diversité des connaissances humaines n’est pas un simple plaisir abstrait – c’est le catalyseur essentiel des percées et des sauts créatifs les plus significatifs de l’humanité. Préserver cette gamme dynamique d’idées face à une conservation des connaissances hyper efficace en matière d’IA est un défi déterminant pour notre avenir en tant qu’espèce innovante !
AIModels.fyi est une publication prise en charge par les lecteurs. Pour recevoir de nouveaux messages et soutenir mon travail