En partant de notre série sur l'histoire des LLM, nous voulons aujourd'hui vous raconter l'histoire fascinante des "hivers de l'IA" - des périodes de financement réduit et d'intérêt pour la recherche en IA. Vous verrez à quel point l'excitation et la déception se succèdent, mais les recherches importantes persévèrent toujours. Rejoignez-nous alors que nous explorons la nature évolutive de l'intelligence artificielle sur cette chronologie la plus complète des hivers de l'IA. (Si vous n'avez pas le temps maintenant, assurez-vous de conserver l'article pour plus tard ! Il vaut la peine d'être lu avec quelques leçons à apprendre).
Bon que c'est l'été car nous plongeons dans :
Comme discuté dans la première édition de cette série, la recherche en PNL a ses racines au début des années 1930 et commence son existence avec les travaux sur la traduction automatique (TA). Cependant, des avancées et des applications importantes ont commencé à émerger après la publication du mémorandum influent de Warren Weaver en 1949.
Le mémorandum a suscité beaucoup d'enthousiasme au sein de la communauté des chercheurs. Au cours des années suivantes, des événements notables se sont déroulés : IBM s'est lancé dans le développement de la première machine, le MIT a nommé son premier professeur à temps plein en traduction automatique et plusieurs conférences dédiées à la traduction automatique ont eu lieu. Le point culminant est venu avec la démonstration publique de la machine IBM-Georgetown, qui a suscité une large attention dans les journaux respectés en 1954.
Un autre facteur qui a propulsé le domaine de la traduction mécanique a été l'intérêt manifesté par la Central Intelligence Agency (CIA) . Au cours de cette période, la CIA croyait fermement à l'importance de développer des capacités de traduction automatique et soutenait de telles initiatives. Ils ont également reconnu que ce programme avait des implications qui allaient au-delà des intérêts de la CIA et de la communauté du renseignement.
Comme tous les booms de l'IA qui ont été suivis d'hivers désespérés, les médias ont eu tendance à exagérer l'importance de ces développements. Les gros titres sur l'expérience IBM-Georgetown proclamaient des phrases telles que " Le cerveau électronique traduit le russe ", " La machine bilingue ", " Le cerveau robot traduit le russe en anglais royal " et " Une idée originale polyglotte ". Cependant, la démonstration réelle impliquait la traduction d'un ensemble organisé de seulement 49 phrases russes en anglais, avec le vocabulaire de la machine limité à seulement 250 mots . Pour mettre les choses en perspective, cette étude a révélé que les humains ont besoin d'un vocabulaire d'environ 8 000 à 9 000 familles de mots pour comprendre des textes écrits avec une précision de 98 %.
Cette démonstration a fait sensation. Cependant, il y avait aussi des sceptiques, comme le professeur Norbert Wiener, considéré comme l'un des premiers pionniers à jeter les bases théoriques de la recherche sur l'IA. Avant même la publication du mémorandum de Weaver et certainement, avant la démonstration, Wiener exprima ses doutes dans une lettre à Weaver en 1947, déclarant :
Je crains franchement que les limites des mots dans différentes langues soient trop vagues et que les connotations émotionnelles et internationales soient trop étendues pour rendre tout schéma de traduction quasi mécanique très prometteur. [...] A l'heure actuelle, la mécanisation du langage, au-delà d'une étape telle que la conception d'opportunités de lecture photoélectrique pour les aveugles, semble bien prématurée.
Cependant, il semble que les sceptiques étaient en minorité, car les rêveurs ont éclipsé leurs préoccupations et ont réussi à obtenir le financement nécessaire. Cinq agences gouvernementales ont joué un rôle dans le parrainage de la recherche : la National Science Foundation (NSF) étant le principal contributeur, ainsi que la Central Intelligence Agency (CIA), l'armée, la marine et l'armée de l'air. En 1960, ces organisations avaient collectivement investi près de 5 millions de dollars dans des projets liés à la traduction mécanique.
En 1954, la recherche sur la traduction mécanique avait suscité suffisamment d'intérêt pour être reconnue par la National Science Foundation (NSF), qui a accordé une subvention au Massachusetts Institute of Technology (MIT). La CIA et la NSF ont engagé des négociations, aboutissant à une correspondance entre les deux directeurs au début de 1956. La NSF a accepté d'administrer tout programme de recherche souhaitable en traduction automatique convenu par toutes les parties concernées. Selon le témoignage de la National Science Foundation en 1960, 11 groupes aux États-Unis étaient impliqués dans divers aspects de la recherche sur la traduction mécanique soutenue par le gouvernement fédéral. Il y avait aussi un énorme intérêt de la part de l'armée de l'air, de l'armée américaine et de la marine américaine.
L'année suivant la démonstration publique de la machine IBM-Georgetown, le terme "IA" a été inventé par McCarthy dans la proposition de la conférence d'été de Dartmouth, publiée en 1955. Cet événement a déclenché une nouvelle vague de rêves et d'espoirs, renforçant encore l'existant enthousiasme.
De nouveaux centres de recherche ont vu le jour, équipés d'une puissance informatique accrue et d'une capacité de mémoire accrue. Simultanément, le développement de langages de programmation de haut niveau a eu lieu. Ces avancées ont été rendues possibles, en partie, par des investissements importants du ministère de la Défense, un important soutien de la recherche en PNL.
Les progrès de la linguistique, notamment dans le domaine des modèles de grammaire formelle proposés par Chomsky, ont inspiré plusieurs projets de traduction. Ces développements semblaient tenir la promesse de capacités de traduction considérablement améliorées.
Comme l'écrit John Hutchins dans " L'histoire de la traduction automatique en un mot ", il y avait de nombreuses prédictions de "percées" imminentes. Cependant, les chercheurs ont rapidement rencontré des "barrières sémantiques" qui présentaient des défis complexes sans solutions simples, conduisant à un sentiment croissant de désillusion.
Dans " The Whisky Was Invisible ", un exemple bien connu est cité par John Hutchins, l'histoire d'un système MT convertissant le dicton biblique "L'esprit est volontaire, mais la chair est faible" en russe, qui a ensuite été retraduit par "Le whisky est fort, mais la viande est pourrie", est-il mentionné. Alors que l'exactitude de cette anecdote est discutable, et Isidore Pinchuk dit même que l'histoire peut être apocryphe, Elaine Rich l'a utilisée pour montrer l'incapacité des premiers systèmes de traduction automatique à gérer les idiomes. De manière générale, cet exemple illustre les problèmes des systèmes MT liés à la sémantique des mots.
Proverbe biblique "L'esprit est bien disposé, mais la chair est faible"
Traduit par le système MT comme "Le whisky est fort, mais la viande est pourrie"
Le principal succès est venu des découvertes du groupe ALPAC, commandé par le gouvernement des États-Unis et dirigé par le Dr Leland Haworth, directeur de la National Science Foundation, qui soutient l'idée sous-jacente illustrée. Dans leur rapport, la traduction automatique est comparée à la traduction humaine des différents textes en physique et sciences de la terre. La conclusion : les résultats de la traduction automatique étaient moins précis, plus lents, plus coûteux et moins complets que la traduction humaine dans tous les exemples examinés.
En 1966, le National Research Council a brusquement cessé tout soutien à la recherche sur la traduction automatique aux États-Unis. Après l'utilisation réussie des ordinateurs pour déchiffrer les codes secrets allemands en Angleterre, les scientifiques ont cru à tort que la traduction de texte écrit entre les langues ne serait pas plus difficile que le décodage des chiffres. Cependant, la complexité du traitement du "langage naturel" s'est avérée bien plus redoutable que prévu. Les tentatives d'automatisation de la recherche dans le dictionnaire et d'application des règles de grammaire ont donné des résultats absurdes. Après deux décennies et vingt millions de dollars investis, aucune solution n'était en vue, ce qui a incité le comité du Conseil national de recherches à mettre fin à l'effort de recherche.
La désillusion est née en raison des attentes élevées pour les applications pratiques sur le terrain, malgré un manque de bases théoriques suffisantes en linguistique. Les chercheurs se sont davantage concentrés sur les aspects théoriques que sur les implémentations pratiques. De plus, la disponibilité limitée du matériel et l'immaturité des solutions technologiques ont posé des défis supplémentaires.
La deuxième vague de déception est arrivée rapidement après la première, servant d'avertissement aux chercheurs en IA sur les dangers des affirmations exagérées. Cependant, avant de se plonger dans les problèmes qui ont suivi, quelques informations de base sont nécessaires.
Dans les années 1940, McCulloch et Walter Pitts se sont lancés dans la compréhension des principes fondamentaux de l'esprit et ont développé les premières versions des réseaux de neurones artificiels, s'inspirant de la structure des réseaux de neurones biologiques.
Environ une décennie plus tard, dans les années 1950, les sciences cognitives ont émergé comme une discipline distincte, appelée la « révolution cognitive ». De nombreux premiers modèles d'IA ont été influencés par le fonctionnement du cerveau humain. Un exemple notable est le système SNARC de Marvin Minsky, le premier réseau neuronal artificiel informatisé qui simulait un rat naviguant dans un labyrinthe.
Cependant, à la fin des années 1950, ces approches ont été largement abandonnées lorsque les chercheurs se sont tournés vers le raisonnement symbolique comme clé de l'intelligence. Le succès de programmes comme le Logic Theorist (1956), considéré comme le premier programme d'IA, et le General Problem Solver (1957), conçu comme une machine universelle de résolution de problèmes par Allen Newell, Herbert A. Simon et Cliff Shaw du Rand Corporation, a joué un rôle dans ce changement.
Un type de travaux connexionnistes perdure : l'étude des perceptrons, défendue par Frank Rosenblatt avec un enthousiasme inébranlable, perdure. Rosenblatt a initialement simulé des perceptrons sur un ordinateur IBM 704 au Cornell Aeronautical Laboratory en 1957. Cependant, cette ligne de recherche s'est brusquement arrêtée en 1969 avec la publication du livre Perceptrons de Marvin Minsky et Seymour Papert, qui décrivait les limites perçues des perceptrons.
Comme l' a écrit Daniel Crevier :
Peu de temps après l'apparition de Perceptrons, un événement tragique a encore ralenti les recherches dans le domaine : Frank Rosenblatt, alors un homme brisé selon la rumeur, s'est noyé dans un accident de bateau. Après avoir perdu son promoteur le plus convaincant, la recherche sur les réseaux de neurones est entrée dans une éclipse qui a duré quinze ans.
Pendant ce temps, des progrès significatifs dans la recherche connexionniste étaient encore en cours, quoique à plus petite échelle. L'introduction par Paul Werbos de la rétropropagation en 1974, un algorithme crucial pour la formation des réseaux de neurones, a continué de progresser, bien qu'avec des ressources limitées. L'obtention d'un financement majeur pour les projets connexionnistes est restée difficile, ce qui a entraîné une baisse de leur poursuite.
Ce n'est qu'au milieu des années 1980 qu'un tournant s'est produit. L'hiver a pris fin lorsque des chercheurs notables comme John Hopfield, David Rumelhart et d'autres ont ravivé un intérêt renouvelé et généralisé pour les réseaux de neurones. Leurs travaux ont ravivé l'enthousiasme pour les approches connexionnistes et ouvert la voie à la résurgence de la recherche et du développement à grande échelle dans le domaine des réseaux de neurones.
Des attentes élevées et des revendications ambitieuses sont souvent une voie directe vers la déception. À la fin des années 1960 et au début des années 1970, Minsky et Papert ont dirigé le projet Micro Worlds au MIT, où ils ont développé des modèles simplifiés appelés micro-mondes. Ils ont défini l'orientation générale de l'effort comme suit :
Nous pensons que [les micro-mondes] sont si importants que nous consacrons une grande partie de nos efforts à développer une collection de ces micro-mondes et à trouver comment utiliser les pouvoirs suggestifs et prédictifs des modèles sans être vaincus par leur incompatibilité avec les vérité littérale.
Bientôt, les partisans des micro-mondes ont réalisé que même les aspects les plus spécifiques de l'utilisation humaine ne pouvaient être définis sans tenir compte du contexte plus large de la culture humaine. Par exemple, les techniques utilisées dans SHRDLU étaient limitées à des domaines d'expertise spécifiques. L'approche des micro-mondes n'a pas conduit à une solution graduelle pour l'intelligence générale. Minsky, Papert et leurs étudiants ne pouvaient pas généraliser progressivement un micro-monde dans un univers plus vaste ou simplement combiner plusieurs micro-mondes en un ensemble plus vaste.
Des difficultés similaires pour répondre aux attentes ont été rencontrées dans d'autres laboratoires d'IA à travers le pays. Le projet de robot Shakey à Stanford, par exemple, n'a pas répondu aux attentes de devenir un dispositif d'espionnage automatisé. Les chercheurs se sont retrouvés pris dans un cycle d'exagération croissante, où ils ont promis plus qu'ils ne pouvaient livrer dans leurs propositions. Les résultats finaux sont souvent restés en deçà et loin des promesses initiales.
La DARPA, l'agence du ministère de la Défense qui finance bon nombre de ces projets, a commencé à réévaluer son approche et à exiger des attentes plus réalistes de la part des chercheurs.
Au début des années 1970, le programme Speech Understanding Research (SUR) de la DARPA visait à développer des systèmes informatiques capables de comprendre les commandes verbales et les données pour une interaction sans intervention dans les scénarios de combat. Après cinq ans et une dépense de quinze millions de dollars, la DARPA a brusquement mis fin au projet, bien que les raisons exactes restent floues. Des institutions de premier plan comme Stanford, MIT et Carnegie Mellon ont vu leurs contrats de plusieurs millions de dollars réduits à une quasi-insignifiance.
Daniel Crevier écrit dans son livre sur la philosophie de financement de la DARPA à l'époque :
La philosophie de la DARPA était alors « Financer des personnes, pas des projets ! » Minsky avait été un étudiant de Licklider à Harvard et le connaissait bien. Comme Minsky me l'a dit, "Licklider nous a donné l'argent en un gros morceau", et ne se souciait pas particulièrement des détails.
Plusieurs entrepreneurs renommés, dont Bolt, Beranek et Newman, Inc. (BBN) et Carnegie Mellon, ont produit des systèmes remarquables au cours de ces cinq années. Ces systèmes comprenaient SPEECHLESS, HIM, HEARSAY-I, DRAGON, HARPY et HEARSAY-II, qui ont fait des progrès significatifs dans la compréhension de la parole connectée et le traitement des phrases de plusieurs locuteurs avec un vocabulaire de mille mots.
Ces systèmes avaient des limites dans la compréhension des entrées sans contraintes , laissant les utilisateurs deviner quelles commandes s'appliquaient à eux en raison de la grammaire contrainte. Malgré la déception suscitée par cet aspect, les chercheurs en IA considéraient ces projets avec fierté. Par exemple, HEARSAY-II, connu pour intégrer de multiples sources de connaissances à l'aide d'un appareil "tableau noir", a été salué comme l'un des programmes d'IA les plus influents jamais écrits.
Mais à ce stade, le fossé de communication entre les chercheurs en IA et leurs sponsors sur les attentes est devenu trop important.
Le reflux de la recherche sur l'IA n'était pas exclusif aux chercheurs américains. En Angleterre, un rapport de Sir James Lighthill, figure éminente de la dynamique des fluides et ancien occupant de la chaire Lucasian de mathématiques appliquées de l'Université de Cambridge, a porté un coup dévastateur à l'état de la recherche sur l'IA. Lighthill a classé ses recherches en trois parties, appelées «l'ABC du sujet».
"A" représentait Advanced Automation, visant à remplacer les humains par des machines spécialement conçues. « C » désigne la recherche informatisée sur le système nerveux central (SNC). Enfin, "B" symbolise l'intelligence artificielle elle-même, servant de pont entre les catégories A et C.
Alors que les catégories A et C ont connu des périodes alternées de succès et d'échecs, Lighthill a souligné le sentiment généralisé et profond de découragement entourant l'activité de pont prévue de la catégorie B. Comme il le dit : de la recherche est valable. ”
Le rapport a déclenché un débat houleux qui a été diffusé dans la série "Controversy" de la BBC en 1973. Intitulé "Le robot à usage général est un mirage", le débat a eu lieu à la Royal Institution, avec Sir James Lighthill face à Donald Michie, John McCarthy et Richard Gregory.
Malheureusement, les répercussions du rapport ont été graves, entraînant le démantèlement complet de la recherche sur l'IA en Angleterre. Seule une poignée d'universités, à savoir Édimbourg, Essex et Sussex, ont poursuivi leurs efforts de recherche sur l'IA. Ce n'est qu'en 1983 que la recherche en IA connaît un renouveau à plus grande échelle. Cette résurgence a été provoquée par l'initiative de financement du gouvernement britannique appelée Alvey, qui a alloué 350 millions de livres sterling à la recherche sur l'IA en réponse au projet japonais de cinquième génération.
Au cours de la période connue sous le nom d'hiver connexionniste, les systèmes symboliques comme le théoricien logique (1956) et le résolveur de problèmes généraux (1957) ont continué à progresser tout en faisant face à des limitations matérielles. Ces systèmes ne pouvaient gérer que des exemples de jouets en raison des capacités informatiques limitées à l'époque. Voici ce qu'Herbert Simon disait de la situation dans les années 1950-1960 :
Les gens s'éloignaient des tâches qui plaçaient la connaissance au centre des choses parce que nous ne pouvions pas construire de grandes bases de données avec les ordinateurs que nous avions alors. Notre premier programme d'échecs et le Logic Theorist ont été réalisés sur un ordinateur qui avait un noyau de 64 à 100 mots et un scratch drum avec 10 000 mots d'espace utilisable dessus. La sémantique n'était donc pas le nom du jeu. Je me souviens d'un étudiant que j'avais qui voulait faire une thèse sur la façon dont vous extrayiez des informations d'un grand magasin. Je lui ai dit "Pas question ! Vous ne pouvez faire cette thèse que sur un exemple de jouet, et nous n'aurons aucune preuve de son évolution. Tu ferais mieux de trouver autre chose à faire. Ainsi, les gens se sont éloignés des problèmes où la connaissance était la question essentielle.
Vers 1960, McCarthy et Minsky du MIT ont développé LISP , un langage de programmation ancré dans les fonctions récursives. LISP est devenu si important en raison de ses capacités de traitement symbolique et de sa flexibilité dans la gestion de tâches complexes, ce qui est crucial pour le développement précoce de l'IA. C'était l'un des premiers langages utilisés dans la recherche en IA. Cependant, ce n'est qu'au début des années 1970, avec l'avènement des ordinateurs dotés de capacités de mémoire importantes, que les programmeurs ont pu mettre en œuvre des applications à forte intensité de connaissances.
Ces systèmes ont constitué la base des «systèmes experts», qui visaient à intégrer l'expertise humaine et à remplacer les humains dans certaines tâches. Les années 1980 ont marqué l'essor des systèmes experts, transformant l'IA d'un domaine académique en applications pratiques, et LISP est devenu le langage de programmation préféré pour cela. LISP "était une rupture radicale avec les langages existants" et a introduit neuf idées innovantes, selon l' essai de Paul Graham, programmeur informatique et co-fondateur de Y Combinator et Hacker News.
Le développement de systèmes experts a représenté une étape importante dans le domaine de l'IA, comblant le fossé entre la recherche académique et les applications pratiques. John McDermott de l'Université Carnegie Mellon a proposé le premier système expert appelé XCON (eXpert CONfigurer) en janvier 1980. XCON a été employé par Digital Equipment Corporation (DEC) pour rationaliser le processus de configuration de leurs ordinateurs VAX. En 1987, XCON a traité un nombre important de commandes, démontrant son impact et son efficacité.
En 1981, CMU a commencé à travailler sur un nouveau système appelé Xsel. Le développement a ensuite été repris par DEC et les essais sur le terrain ont commencé en octobre 1982. Alors que Xcon et Xsel ont reçu une publicité importante, ils en étaient encore au stade du prototype. Bruce Macdonald, alors responsable du programme Xsel, a commencé à protester que la publicité dépassait de loin les réalisations, mais le vice-président des ventes n'était pas prêt de s'arrêter. En effet, Macdonald se souvient de la rencontre avec des cadres supérieurs au cours de laquelle le vice-président aux ventes l'a regardé et lui a dit : « Vous travaillez sur ce truc depuis trois ans maintenant. N'est-il pas prêt ?
Le début des années 1980 a vu un afflux d'histoires de réussite de systèmes experts, conduisant à la formation de groupes d'IA dans de nombreuses grandes entreprises. L'essor des ordinateurs personnels, la popularité des films Star Wars et des magazines comme Discover et High Technology ont contribué à la fascination du public pour l'IA. Le boom de la biotechnologie d'un milliard de dollars à la fin des années 1970 a alimenté l'intérêt des investissements dans la haute technologie, incitant les principaux experts en IA à se lancer dans de nouvelles entreprises :
Les entreprises apparues à cette époque pouvaient être divisées en trois grands domaines, allant de celui avec les ventes les plus importantes à celui avec les ventes les plus faibles :
En 1985, 1 milliard de dollars ont été dépensés collectivement par 150 entreprises pour des groupes d'IA internes . En 1986, les ventes américaines de matériel et de logiciels liés à l'IA ont atteint 425 millions de dollars, avec la création de 40 nouvelles entreprises et des investissements totaux de 300 millions de dollars.
La croissance explosive a apporté des défis alors que le milieu universitaire se sentait encombré par l'afflux de journalistes, d'investisseurs en capital-risque, de chasseurs de têtes de l'industrie et d'entrepreneurs. La réunion inaugurale de l'Association américaine pour l'intelligence artificielle en 1980 a attiré environ un millier de chercheurs , tandis qu'en 1985, une réunion conjointe de l'AAAI et de l'IJCAI a attiré près de six mille personnes . L'atmosphère est passée d'une tenue décontractée à une tenue formelle.
En 1984, lors de la réunion annuelle de l'AAAI, Roger Schank et Marvin Minsky ont mis en garde contre le prochain "AI Winter", prédisant un éclatement imminent de la bulle de l'IA, qui s'est produite trois ans plus tard, et le marché de l'IA spécialisée basée sur LISP. le matériel s'est effondré .
Sun Microsystems et des sociétés comme Lucid proposaient des stations de travail puissantes et des environnements LISP comme alternatives. Les postes de travail à usage général ont posé des défis aux machines LISP, incitant des sociétés telles que Lucid et Franz LISP à développer des versions de plus en plus puissantes et portables de LISP pour les systèmes UNIX. Plus tard, les ordinateurs de bureau d'Apple et d'IBM ont émergé avec des architectures plus simples pour exécuter des applications LISP. En 1987, ces alternatives correspondaient aux performances des machines LISP coûteuses, rendant les machines spécialisées obsolètes. L'industrie d'une valeur d'un demi-milliard de dollars a été rapidement remplacée en une seule année.
Après l'effondrement du marché des machines LISP, des machines plus avancées ont pris leur place mais ont finalement connu le même sort. Au début des années 1990, la plupart des sociétés commerciales LISP, y compris Symbolics et Lucid Inc., avaient échoué. Texas Instruments et Xerox se sont également retirés du terrain. Certaines entreprises clientes ont continué à maintenir des systèmes basés sur LISP, mais cela a nécessité un travail de support.
Dans les années 1990 et au-delà, le terme "système expert" et le concept de systèmes d'IA autonomes ont largement disparu du lexique informatique. Il y a deux interprétations de cela. Un point de vue est que les "systèmes experts ont échoué" car ils n'ont pas pu tenir leur promesse surfaite, ce qui a conduit le monde informatique à passer à autre chose. L'autre point de vue est que les systèmes experts ont été victimes de leur succès. Alors que les professionnels de l'informatique adoptaient des concepts tels que les moteurs de règles, ces outils sont passés d'outils autonomes pour le développement de systèmes experts spécialisés à des outils standard parmi d'autres.
En 1981, les Japonais ont dévoilé leur plan ambitieux pour le projet informatique de cinquième génération, provoquant des inquiétudes dans le monde entier. Les États-Unis, avec leur histoire de financement du ministère de la Défense pour la recherche sur l'IA et l'expertise technique, ont réagi en lançant la Strategic Computing Initiative (SCI) en 1983. La SCI visait à développer du matériel informatique avancé et de l'IA dans un délai de dix ans. Les auteurs de Strate gic Computing : DARPA and the Quest for Machine Intelligence, 1983-1993 décrivent « la machine envisagée par SCI » :
Il exécuterait dix milliards d'instructions par seconde pour voir, entendre, parler et penser comme un humain. Le degré d'intégration requis rivaliserait avec celui atteint par le cerveau humain, l'instrument le plus complexe connu de l'homme.
Un projet notable dans le cadre de la Strategic Computing Initiative (SCI) était le projet «Smart Truck» ou Autonomous Land Vehicle (ALV) . Il a reçu une part importante du budget annuel de SCI et visait à développer un robot polyvalent pour diverses missions. Ces missions comprenaient la livraison d'armes, la reconnaissance, la manutention de munitions et le réapprovisionnement de la zone arrière. L'objectif était de créer un véhicule capable de naviguer sur un terrain accidenté, de surmonter les obstacles et d'utiliser le camouflage. Au départ, les prototypes à roues étaient limités aux routes et aux terrains plats, mais le produit final était conçu pour traverser n'importe quel terrain sur des jambes mécaniques.
À la fin des années 1980, il est devenu évident que le projet était loin d'atteindre les niveaux souhaités d'intelligence artificielle. Le principal défi découlait de l'absence d'une structure de gestion efficace et stable capable de coordonner les différents aspects du programme et de les faire progresser collectivement vers l'objectif de l'intelligence artificielle. Diverses tentatives ont été faites pour imposer des plans de gestion aux SCI, mais aucune n'a réussi. De plus, les objectifs ambitieux de SCI, tels que la capacité d'auto-conduite du projet ALV, dépassaient ce qui était réalisable à l'époque et ressemblaient aux systèmes d'IA multimodaux contemporains et au concept insaisissable d'AGI (intelligence générale artificielle).
Sous la direction de Jack Schwarz, qui a pris le contrôle de l'Office des technologies de traitement de l'information (IPTO) en 1987, le financement de la recherche sur l'IA au sein de la DARPA a été réduit . Dans Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence , Pamela McCorduck décrit l'attitude de Schwarz envers l'initiative informatique stratégique et le rôle de l'IA :
Schwartz croyait que la DARPA utilisait un modèle de natation - fixant un objectif et pagayant vers celui-ci indépendamment des courants ou des tempêtes. La DARPA devrait plutôt utiliser un modèle de surfeur – en attendant la grande vague, ce qui permettrait à ses fonds relativement modestes de surfer avec grâce et succès vers ce même objectif. À long terme, l'IA était possible et prometteuse, mais sa vague n'avait pas encore augmenté.
Bien qu'il n'ait pas réussi à atteindre un haut niveau d'intelligence artificielle, le SCI a franchi des étapes techniques spécifiques. Par exemple, en 1987, l'ALV avait démontré des capacités de conduite autonome sur des routes à deux voies, d'évitement d'obstacles et de conduite hors route dans différentes conditions. L'utilisation de caméras vidéo, de scanners laser et d'unités de navigation inertielle lancées par le programme SCI ALV a jeté les bases des développements actuels des voitures commerciales sans conducteur.
Le ministère de la Défense a investi 1 000 417 775,68 $ dans le SCI entre 1983 et 1993, comme indiqué dans Strategic Computing: DARPA and the Quest for Machine Intelligence, 1983-1993 . Le projet a finalement été remplacé par l'Accelerated Strategic Computing Initiative dans les années 1990 et plus tard par le Advanced Simulation and Computing Program.
Froid! Les hivers de l'IA n'étaient sûrement pas amusants. Mais une partie de la recherche qui a rendu possible les récentes percées avec les grands modèles de langage (LLM) a été réalisée à cette époque. Au plus fort des systèmes experts symboliques, les chercheurs connexionnistes ont poursuivi leurs travaux sur les réseaux de neurones, bien qu'à plus petite échelle. La découverte par Paul Werbos de la rétropropagation, un algorithme crucial pour la formation des réseaux de neurones, a été cruciale pour de nouveaux progrès.
Au milieu des années 1980, "l'hiver connexionniste" a pris fin lorsque des chercheurs tels que Hopfield, Rumelhart, Williams, Hinton et d'autres ont démontré l'efficacité de la rétropropagation dans les réseaux de neurones et leur capacité à représenter des distributions complexes. Cette résurgence s'est produite simultanément avec le déclin des systèmes experts symboliques.
Après cette période, les recherches sur les réseaux de neurones ont prospéré sans plus de revers, conduisant au développement de nombreux nouveaux modèles, ouvrant finalement la voie à l'émergence des LLM modernes. Dans le prochain numéro, nous nous plongerons dans cette période fructueuse de recherche sur les réseaux de neurones. Restez à l'écoute!
À suivre…
Cette histoire a été initialement publiée au Turing Post. Si vous avez aimé ce numéro, abonnez-vous pour recevoir le quatrième épisode de l'Histoire des LLM directement dans votre boîte de réception.