paint-brush
Une discussion artificielle sur l'intelligence artificiellepar@brbs
833 lectures
833 lectures

Une discussion artificielle sur l'intelligence artificielle

par Tyler Berbert11m2023/03/29
Read on Terminal Reader

Trop long; Pour lire

L'IA est une technologie véritablement révolutionnaire à plus long terme. Une fois que vous connaissez les faits à son sujet, la conclusion est incontournable : ses capacités actuelles sont exagérées pour vendre des produits. Plus nous en saurons sur le comment, mieux nous serons tous lorsque l'IA approchera réellement l'intelligence au niveau humain.
featured image - Une discussion artificielle sur l'intelligence artificielle
Tyler Berbert HackerNoon profile picture

Pour parler réellement d'intelligence artificielle, nous devrons également utiliser le terme « apprentissage automatique ». L'IA est la grande chose pour laquelle les gens utilisent l'apprentissage automatique. L'apprentissage automatique est le fondement de l'IA, les mathématiques et les algorithmes qui l'alimentent.


Ils ne sont pas identiques, mais leur diagramme de Venn se chevauche suffisamment pour que cela n'ait pas vraiment d'importance pour nos besoins.


Fondamentalement, il y a des maths qui décrivent des courbes. Vous vous souvenez des paraboles ? Des choses qui ressemblent à des fers à cheval où les extrémités continuent?


Vous pouvez modéliser une tonne de choses dans la vraie vie avec des équations de courbes, et plus précisément, avec des quantités absurdes d'entre elles superposées de manière absurdement complexe. La puissance de calcul est maintenant bon marché. Cela, plus la capacité d'Internet à créer d'énormes quantités de données d'entraînement, est une sacrée combinaison.


Les personnes qui font cette modélisation essaient généralement de trouver une valeur optimale sur plusieurs courbes à la fois - le point final, le haut ou le bas de la parabole, l'extrémité finie du fer à cheval.


Certaines courbes sont généralement plus importantes pour le résultat final que d'autres ; vous voulez être vraiment précis sur l'optimisation de certains et peut être plus flou sur l'optimisation d'autres.


Vous pouvez demander à l'ordinateur d'apprendre les "poids" corrects pour en mettre différents. Vous pouvez le faire affiner les équations de modélisation elles-mêmes.


En fin de compte, l'ordinateur trouve un ensemble optimal de valeurs d'une manière qui optimise un certain résultat final. C'est la « magie » (guillemets lourds) de l'apprentissage automatique.


Vous pouvez prendre une entrée - une invite verbale, un ensemble de données sur vos préférences - et créer une sortie assez réaliste dans une certaine dimension - un dessin, la voix d'une célébrité, une recommandation de chanson.


La puissance de calcul peut être bon marché, mais payer des humains pour faire tout ce calcul, ou même programmer ce calcul dans un ordinateur, coûte cher.


Des gens intelligents ont compris comment faire en sorte que les machines fassent une grande partie de ce travail pour nous : il existe des moyens de faire en sorte que les machines « traversent » des équations de courbes et les suivent « en descente ».


Cela a personnalisé vos résultats Google pendant quelques décennies. Depuis lors, il y a eu une course à l'armement des cartes graphiques. Il y a eu AlphaGo, qui a battu le meilleur joueur de go du monde en 2015.


Il y a eu des chiens robots dynamiques de Boston. Il y a eu des applications comme Shazam et Siri. Il y a eu des programmes de dessin comme DALL-E et Midjourney .


Tout cela est cool, mais l'argent n'a pas bougé loin des résultats de recherche. Il a versé la main sur une chose adjacente : montrer aux gens des choses qu'ils aimeront sur les réseaux sociaux. Les choses que vous passerez du temps à regarder et les publicités sur lesquelles vous pourriez cliquer.


Le concept plus large d'IA, quant à lui, est un élément de base de la science-fiction depuis un peu plus longtemps, et il interagit avec ce "décollage" que le domaine a connu au cours des cinq à dix dernières années. Nous voyons cette croissance exponentielle et pensons à "The Terminator".


Les vendeurs d'IA sont heureux de nous laisser penser cela, de sauter certains faits clés, alors nous croirons leurs affirmations de « oui ! comparez-nous à Skynet des films Terminator ! [Crazy Invention #4852], que mon entreprise construit, est dans 5 à 10 ans maximum !"


Je comprends pourquoi les gens verraient la croissance certes rapide de ce qu'il peut faire et penseraient que nous sommes vraiment sur le point de lui donner conscience.


Même si ce précipice est plus à l'échelle de 200 ans au lieu de 2 ou 20, c'est une chose assez importante par rapport à la durée de vie des humains.


Nous pourrions vraiment, sur cette échelle de temps, dépasser le point où les programmes d'IA ne sont que "auto-complétion-pour-concepts-au lieu-de-mots" comme ils le sont dans ChatGPT ou l'argument de la salle chinoise de Searle .


Nous pouvons en fait mettre les bons programmes sur le bon matériel d'inspiration biologique et imiter véritablement l'esprit humain, soulevant des questions d'humanité et de sensibilité soulevées par Philip K. Dick et d'autres.


Si et quand l'IA rivalise vraiment avec notre intelligence émotionnelle et perceptive, possédant une conscience ininterrompue comme la nôtre au lieu d'une simple compétence dans des domaines spécifiques, nous aurons un compte à rendre.


Ce ne sera pas aujourd'hui, demain, la semaine prochaine ou même l'année prochaine.


Les connexions neuronales massivement parallèles (c'est-à-dire, dans ce cas, fonctionnant en même temps) que nous avons dans notre cerveau - c'est le fossé de notre château, pour ainsi dire. C'est ce qui fait que « l'intelligence générale artificielle » s'éloigne des années ou plus probablement des décennies.


L'apprentissage en profondeur, la branche de l'apprentissage automatique à l'origine de bon nombre de ses avancées récentes, est un nom sympa pour les statistiques et le calcul de l'imitation des relations entrée-sortie que nous voyons dans le monde réel. Cela ne signifie pas - pas encore, du moins - que les ordinateurs "apprennent en profondeur" quoi que ce soit.


Aussi impressionnant soit-il, ce sont des maths qui se passent dans un ordinateur, d'une manière fondamentalement étrangère à la façon dont « les maths se passent » dans votre cerveau.


Le cerveau utilise étonnamment peu d'électricité. Les centres de données utilisent des quantités incroyablement importantes. Ces derniers sont des machines à force brute. Ils traitent moins de threads et de manière moins flexible que nous ; chacun est tellement rapide .


Il calcule et réduit les possibilités si rapidement que même les meilleurs joueurs d'échecs et de go ne peuvent pas suivre.


Son talon d'Achille est le fait qu'il nécessite des problèmes assez bien définis, des entrées et des sorties assez propres. Un jeu de plateau. Un robot qui ne tombe pas. Il ne peut pas traiter à la fois un ensemble de problèmes d'« optimisation » absurdement divers et évoluant rapidement, en passant constamment de l'un à l'autre.


Quels que soient les points forts et les défauts de l'IA dans des domaines individuels, elle ne peut pas lier de nombreux domaines comme nous le faisons, en changeant d'orientation au besoin, en adaptant et en transférant le comportement d'un domaine à l'autre. Il ne peut pas faire cela au niveau d'un tout-petit humain.


L'un des principaux objectifs de la recherche sur l'IA a été l'apprentissage « one-shot » ou « peu-shot », ce qui signifie qu'il n'est pas nécessaire de disposer d'ensembles de données massifs et de temps de formation pour apprendre à faire quelque chose. Il y a eu un succès ici; il est encore loin derrière notre cerveau.


Automatiquement, nous sommes doués pour l'apprentissage en quelques coups dans de nombreux domaines, et dès le plus jeune âge. Nous apprenons rapidement des règles et des stratégies à partir de presque aucune donnée d'entraînement. Vous pouvez montrer à un enfant comment utiliser un iPad, faire du vélo, attacher ses chaussures ou expliquer la morale d'une histoire (pas seulement son résumé de l'intrigue).


Vous pouvez à peine entraîner un ordinateur à bien faire l'une de ces choses. S'il pouvait faire du raisonnement cognitif, de la locomotion et de l'interaction humaine sans être terrifiant, nous l'utiliserions déjà pour toutes ces choses.


Les entreprises sont allergiques au travail humain désordonné et recherchent toujours des versions de machines moins chères. Ils auraient rendu cela possible. Ils ne l'ont pas fait.


Les laboratoires de neurosciences computationnelles dans les universités sont ceux qui s'intéressent à la modélisation de la pensée interne et du raisonnement que notre cerveau fait sur le monde. Ce n'est pas le but des modèles qui mélangent les photos de deux personnes pour voir à quoi ressembleraient leurs bébés.


Probablement pendant des décennies, seuls nous, les humains, serons capables de naviguer dans le monde selon des stratégies floues, adaptatives et de bricolage, à la volée.


Cette capacité générale à apprendre et à naviguer dans le monde, à partir d'une base d'émotions et d'expériences, n'est pas quelque chose que l'industrie technologique a trouvé utile lors de la construction de l'IA.


Rares sont les façons dont une véritable imitation du cerveau s'est produite jusqu'à présent dans l'apprentissage automatique. Copier le cerveau n'a pas été nécessaire, c'est-à-dire rentable.


Les entreprises (et les universités qu'elles financent) ont plutôt optimisé pour des choses plus mesurables : le nombre de clics sur un flux de médias sociaux ou la précision d'une frappe de drone.


S'il a essayé de nous imiter, c'est qu'il s'agissait d'une tentative de profit pour obtenir les résultats de certaines choses que les cerveaux peuvent faire. Certaines formes impressionnantes et intéressantes de reconnaissance de formes se produisent dans la vision par ordinateur.


Tout cela pour faire comprendre que l'IA n'est ni "la magie qui donne vie aux ordinateurs" ni "la magie que certaines personnes peuvent faire avec des ordinateurs". C'est des maths brutes. Connaissances mélangées à la puissance de calcul. Effet de levier. La plupart des modèles d'IA calculent des chiffres pour faire une chose : gagner de l'argent.


Les personnes possédant cette oie dorée, cet outil puissant, sont économiquement incitées à affirmer que l'IA est sur le point de faire quelque chose de cosmique ou d'apocalyptique afin de cacher les choses plus réelles, banales et moins accrocheuses qu'elle fait pour leur entreprise.


Ils ont tout intérêt à prétendre qu'il sera capable de certaines grandes choses dans les 1, 5, 10 ou 15 prochaines années. Ce sont des délais que les investisseurs aiment. Les voitures entièrement autonomes qui ne marchent pas ne sont que l'un des premiers flops que nous verrons sur ce front.


Les hauts lieux de science-fiction et les promesses font de bons films. Ex Machina, Elle, Blade Runner . Cela ne veut pas dire qu'ils sont vrais.


Lorsque nous acceptons que les développeurs d'IA définissent eux-mêmes leurs produits comme (1) inévitables et (2) politiquement et économiquement transformateurs, il devient facile d'éluder le fait évident que les formes que prend l'IA (c'est-à-dire en tant que chatbots ! En tant que "moteurs de recherche" ! ) et les usages qui en sont faits (c'est-à-dire les emplois qu'elle augmentera ou remplacera ! Les tâches qu'elle rendra plus faciles ou plus difficiles !) dépendent des conditions politiques et économiques dans lesquelles elle émerge.

Je suis ouvert à la possibilité que nous soyons au bord d'un précipice – qu'un monde « transformé de manière méconnaissable » par de grands modèles linguistiques ne soit qu'une question de mois, comme Paul Christiano semble le croire. Mais une règle empirique de base de cette newsletter est que les choses changent lentement et bêtement plutôt que rapidement et de façon spectaculaire, et une critique appropriée de l'IA doit tenir compte de cette probabilité. Pour l'instant, je suis rempli de ressentiment de me retrouver au milieu d'un discours sur la technologie dans lequel les termes et les cadres de discussion ont été plus ou moins entièrement fixés par les entreprises privées qui profitent de son développement et de son adoption. .


— Max Read, Ce que la critique de Facebook peut nous apprendre sur la critique de l'IA


Faisons le point une seconde. Comment, historiquement, cela s'est-il passé pour nous, acceptant les "termes et cadres de discussion" que l'élite technocratique impose aux discussions sur les questions techniques, qu'il s'agisse de crypto-monnaie ou de banque ?


Combien de crises bancaires catastrophiques se sont produites entre les réformes post-Grande Dépression de FDR et les années 80 ? Combien se sont-ils produits depuis lors, après que Reagan les ait annulés ?


Max Read cite l'excellent article de Harper par Joe Bernstein sur la façon dont Facebook a déjà fait cela derrière le rideau ; il a vendu toute une classe de personnes sur un modèle fragile et de plus en plus intenable de l'efficacité de ses propres publicités.


Ce n'est pas parce qu'un système pyramidal est basé sur un produit réel qu'il ne s'agit pas d'un système pyramidal.


Un point important ici est le suivant : la technologie n'est pas "meilleure" que la finance lorsqu'il s'agit d'induire le public en erreur sur ses offres. C'est sans doute pire. Vous avez vu ce qui est arrivé aux tests sanguins bon marché, aux espaces de coworking et à la blockchain. Les belles industries sont entachées de bêtises.


Regardez comment ils ont massacré mon garçon.


Ils gâchent les choses en interne, mais d'une manière qui nous affecte tous, parce que nos amis et voisins adhèrent à leurs conneries et les laissent fixer les termes de la discussion. Ensuite, nous payons leurs parachutes dorés.


Des millions de personnes perdent leurs moyens de subsistance dans des événements économiques qui auraient pu être évités avec quelques réglementations bien placées. Conte vieux comme le monde.


Il nous incombe d'essayer quelque chose de nouveau avec l'IA. Il est payant de donner à notre futur nous la liberté de prendre des décisions éclairées à ce sujet, sur la base d'informations fiables. C'est payant d'apprendre la vérité à ce sujet. Prendre les caprices des autres à leur valeur nominale garantit que vous paierez un prix plus élevé à l'avenir.


Les gens deviennent bons dans l'utilisation du ML et de l'apprentissage en profondeur pour toutes sortes de choses - en faisant en sorte que les ordinateurs reconnaissent les visages, reproduisent les voix et montrent aux gens du contenu qui les fera défiler.


Ces utilisations ne deviendront pas meilleures ou plus utiles pour nos vies, plutôt que de rendre certaines personnes très riches, à moins que nous ne le fassions ainsi.


En attendant, bien sûr, ils peuvent être très divertissants.


L'IA peut être utilisée pour le bien, le mal, simplement bizarre ou vraiment n'importe quoi, selon les conditions humaines. À l'heure actuelle, cela signifie simplement que tout dépend de l'endroit où mène la recherche du profit.


La majeure partie de l'expertise en IA a été balayée par des entreprises qui tentent de nous soutirer de l'argent. Il n'y a tout simplement pas autant d'argent dans les efforts publics, transparents et axés sur les personnes pour améliorer fondamentalement la vie (anciennement du domaine du gouvernement) ou même dans la simulation cérébrale.


C'est dans le pain et les cirques et les usages militaires. Ce sont ces types de conditions qui font que l'IA, et toute autre technologie, va dans la direction qu'elle prend.


L'IA est là maintenant. Ce fait est de l'eau sous le pont. En parler comme si c'était magique ne profite qu'aux personnes qui ont le plus à gagner à raconter des conneries à ce sujet.


Habiller l'IA en gros discours lourds, dans ce cas, des discours apocalyptiques, s'attaquant à l'intérêt non informé des gens pour elle, est un schéma que nous avons déjà vu.


"Theranos/WeWork/NFT vont tout changer." Correction : ils auraient pu beaucoup changer. Au lieu de cela, ils se sont survendus. Ils ont surpromis et sous-livrés.


Cette hystérie autour de l'IA, survendant à la fois ses capacités et ses risques pour que certaines personnes deviennent plus riches, est difficile à distinguer des personnes qui s'y intéressent simplement naturellement. C'est une chose intéressante avec un large éventail d'utilisations.


Les gens vont y adhérer malgré tout, comme ils l'ont fait avec la crypto et les NFT, et probablement plus encore. Raison de plus pour connaître la vérité à ce sujet.


Si vous ne retirez rien d'autre de cet article, prenez ceci : la façon dont nous utilisons l'IA les uns sur les autres est, à l'heure actuelle, une question beaucoup plus urgente que tout ce qui concerne la prise de conscience croissante de l'IA. Pensez-y : s'il est devenu conscient et a voulu nous faire du mal, pourquoi ? Pourquoi pourrait-il vouloir faire cela?


Ne semble-t-il pas évident que la façon dont nous le mettons au monde aura un effet sur son attitude envers l'espèce humaine ?


Est-il logique de confier cela, et les récits qui l'entourent, entièrement aux PDG et aux propriétaires de capitaux adjacents à la technologie, un groupe avec un bilan terrible à ce sujet et dont il a été prouvé qu'il avait une incidence de psychopathie plus élevée que la population générale ?


Voulons-nous qu'ils soient responsables de son utilisation, de sa recherche et de son développement, jusqu'au moment où il devient sensible, que ce soit en 2030 ou 2230 ?


Comme l'a souligné Read, les semeurs de peur de l'IA trouvent pratique que les gens ne pensent pas à cela.


Ils trouvent beaucoup plus pratique que ce fait reste caché afin qu'ils puissent dire que son avancement est inévitable, qu'il ne vaut pas la peine d'être interrogé, et que la Singularité est juste au coin de la rue.


Il n'y a rien d'inévitable ici, sauf ce que les humains rendent inévitable. Les gorilles ne travaillent pas là-dessus.


Si et quand l'intelligence artificielle générale arrivera, ce sera une question d'astrobiologie, d'une forme de vie extraterrestre. Jusqu'à ce moment-là, c'est celui de la philosophie, de l'histoire, des sciences humaines. Allons-nous la rendre comme nous, à notre image, peut-être même meilleure que nous ?


Allons-nous l'aggraver, miroir de nos tendances les plus sociopathes ? Ce qui est fou, c'est que les humains décident. Nous sommes les bâtisseurs. Nous exerçons un contrôle sur son caractère extraterrestre ou humain.


Sauf, bien sûr, "nous ne sommes" pas. Certaines personnes sont plus que d'autres. Sommes-nous d'accord avec ça? Sommes-nous d'accord avec qui sont ces gens? Sommes-nous d'accord avec l'endroit où ils dirigent cette technologie?


Après avoir vu ce que la classe possédant un capital élevé a tendance à « rendre inévitable » - ses pronostics dans d'autres industries, ses pratiques à courte vue et ignorant les faits et sa mentalité de troupeau qui ont fait s'effondrer tant d'entreprises d'un milliard de dollars - un certain scepticisme quant à la façon dont ils parlent de l'IA est justifiée.


Également publié ici