paint-brush
De AI Winters y lo que significa para el futuropor@kseniase
1,493 lecturas
1,493 lecturas

De AI Winters y lo que significa para el futuro

por Ksenia Se18m2023/07/11
Read on Terminal Reader

Demasiado Largo; Para Leer

La historia de la inteligencia artificial está llena de períodos de financiación e interés reducidos en la investigación de la IA. Únase a nosotros mientras exploramos la naturaleza evolutiva de la inteligencia artificial en esta línea de tiempo más completa de los inviernos de IA. Este artículo es parte de una serie sobre la historia de los LLM, que incluye la primera edición de esta serie.
featured image - De AI Winters y lo que significa para el futuro
Ksenia Se HackerNoon profile picture
0-item
1-item

Saliendo de nuestra serie sobre la historia de los LLM, hoy queremos contarles la fascinante historia de los "inviernos de IA": períodos de financiación e interés reducidos en la investigación de IA. Verá cómo la emoción y la decepción se alternan, pero la investigación importante siempre persevera. Únase a nosotros mientras exploramos la naturaleza evolutiva de la inteligencia artificial en esta línea de tiempo más completa de los inviernos de IA. (Si no tiene tiempo ahora, ¡asegúrese de guardar el artículo para más tarde! Vale la pena leerlo con algunas lecciones para aprender).


Que bueno que es verano porque nos estamos sumergiendo en:

  1. Invierno n.º 1, 1966: error de traducción automática
  2. Invierno #2, 1969: Conexionistas y Eclipse de la investigación de redes neuronales
  3. Invierno #3, 1974: Brecha de comunicación entre los investigadores de IA y sus patrocinadores
  4. Invierno n.° 4, 1987: Colapso del mercado de máquinas LISP
  5. Invierno n.º 5, 1988: Sin inteligencia artificial de alto nivel, sin dinero

Winter#1, 1966: Traducción automática

Como se discutió en la primera edición de esta serie, la investigación de la PNL tiene sus raíces a principios de la década de 1930 y comienza su existencia con el trabajo sobre la traducción automática (TA). Sin embargo, importantes avances y aplicaciones comenzaron a surgir después de la publicación del influyente memorando de Warren Weaver en 1949.


Yehoshua Bar-Hillel, the first full-time professor in machine translation

El memorándum generó gran entusiasmo en la comunidad investigadora. En los años siguientes, se desarrollaron hechos notables: IBM se embarcó en el desarrollo de la primera máquina, el MIT nombró a su primer profesor de tiempo completo en traducción automática y se llevaron a cabo varias conferencias dedicadas a la TA. La culminación llegó con la demostración pública de la máquina IBM-Georgetown, que atrajo la atención generalizada en periódicos respetados en 1954.



The first public demonstration of an MT system using the Georgetown Machine

Otro factor que impulsó el campo de la traducción mecánica fue el interés mostrado por la Agencia Central de Inteligencia (CIA) . Durante ese período, la CIA creía firmemente en la importancia de desarrollar capacidades de traducción automática y apoyó tales iniciativas. También reconocieron que este programa tenía implicaciones que iban más allá de los intereses de la CIA y la comunidad de inteligencia. The punched card that was used during the demonstration of the Georgetown Machine

escépticos

Al igual que todos los auges de IA que han sido seguidos por inviernos desesperados de IA, los medios tendieron a exagerar la importancia de estos desarrollos. Los titulares sobre el experimento IBM-Georgetown proclamaban frases como " El cerebro electrónico traduce el ruso ", "La máquina bilingüe", "El cerebro robótico traduce el ruso al inglés del rey" y " Creación políglota ". Sin embargo, la demostración real involucró la traducción de un conjunto seleccionado de solo 49 oraciones rusas al inglés, con el vocabulario de la máquina limitado a solo 250 palabras . Para poner las cosas en perspectiva, este estudio encontró que los humanos necesitan un vocabulario de alrededor de 8,000 a 9,000 familias de palabras para comprender textos escritos con un 98% de precisión.


Norbert Wiener (1894-1964) hizo importantes contribuciones a los procesos estocásticos, la ingeniería electrónica y los sistemas de control. Él originó la cibernética y teorizó que los mecanismos de retroalimentación conducen a un comportamiento inteligente, sentando las bases para la IA moderna.

Esta demostración causó sensación. Sin embargo, también hubo escépticos, como el profesor Norbert Wiener, considerado uno de los primeros pioneros en sentar las bases teóricas para la investigación de la IA. Incluso antes de la publicación del memorándum de Weaver y ciertamente antes de la manifestación, Wiener expresó sus dudas en una carta a Weaver en 1947, afirmando:


Francamente, me temo que los límites de las palabras en diferentes idiomas son demasiado vagos y las connotaciones emocionales e internacionales son demasiado extensas para hacer que cualquier esquema de traducción casi mecánico sea muy esperanzador. [...] En el momento actual, la mecanización del lenguaje, más allá de una etapa como el diseño de oportunidades de lectura fotoeléctrica para ciegos, parece muy prematura.

Partidarios y la financiación de MT

Sin embargo, parece que los escépticos eran una minoría, ya que los soñadores eclipsaron sus preocupaciones y aseguraron con éxito la financiación necesaria. Cinco agencias gubernamentales desempeñaron un papel en el patrocinio de la investigación: la Fundación Nacional de Ciencias (NSF) fue el principal contribuyente, junto con la Agencia Central de Inteligencia (CIA), el Ejército, la Armada y la Fuerza Aérea. Para 1960, estas organizaciones habían invertido colectivamente casi $5 millones en proyectos relacionados con la traducción mecánica.


Financiamiento de las cinco agencias gubernamentales, el informe data de 1960


En 1954, la investigación de la traducción mecánica había ganado suficiente interés como para recibir el reconocimiento de la Fundación Nacional de Ciencias (NSF), que otorgó una subvención al Instituto Tecnológico de Massachusetts (MIT). La CIA y la NSF entablaron negociaciones, lo que resultó en correspondencia entre los dos directores a principios de 1956. La NSF acordó administrar cualquier programa de investigación deseable en traducción automática que fuera acordado por todas las partes involucradas. Según el testimonio de la Fundación Nacional de Ciencias en 1960, 11 grupos en los Estados Unidos estaban involucrados en varios aspectos de la investigación de traducción mecánica apoyados por el Gobierno Federal. También hubo un gran interés por parte de la Fuerza Aérea, el Ejército de los EE. UU. y la Marina de los EE. UU.

inicio de la IA

El año siguiente a la demostración pública de la máquina IBM-Georgetown, McCarthy acuñó el término "IA" en la propuesta para la Conferencia de Verano de Dartmouth, publicada en 1955. Este evento provocó una nueva ola de sueños y esperanzas, reforzando aún más la existente. entusiasmo.


Surgieron nuevos centros de investigación, equipados con potencia informática mejorada y mayor capacidad de memoria. Simultáneamente, tuvo lugar el desarrollo de lenguajes de programación de alto nivel. Estos avances fueron posibles, en parte, gracias a importantes inversiones del Departamento de Defensa, un importante partidario de la investigación de la PNL.

Los avances en lingüística, particularmente en el campo de los modelos de gramática formal propuestos por Chomsky, inspiraron varios proyectos de traducción. Estos desarrollos parecían prometer capacidades de traducción significativamente mejoradas.


Como escribe John Hutchins en " La historia de la traducción automática en pocas palabras ", hubo numerosas predicciones de "avances" inminentes. Sin embargo, los investigadores pronto encontraron "barreras semánticas" que presentaban desafíos complejos sin soluciones sencillas, lo que llevó a una creciente sensación de desilusión.

Desilusión

En " El whisky era invisible ", John Hutchins cita un ejemplo muy usado, la historia de un sistema MT que convierte el dicho bíblico "El espíritu está dispuesto, pero la carne es débil" al ruso, que luego se tradujo de nuevo como “El whisky es fuerte, pero la carne está podrida”, se menciona. Si bien la precisión de esta anécdota es cuestionable, e Isidore Pinchuk incluso dice que la historia puede ser apócrifa, Elaine Rich la usó para mostrar la incapacidad de los primeros sistemas de traducción automática para lidiar con modismos. En general, este ejemplo ilustra los problemas de los sistemas MT relacionados con la semántica de las palabras.


Dicho bíblico "El espíritu está dispuesto, pero la carne es débil"

Traducido por el sistema MT como "El whisky es fuerte, pero la carne está podrida"


El principal éxito provino de los hallazgos del grupo ALPAC, encargado por el gobierno de los Estados Unidos y encabezado por el Dr. Leland Haworth, Director de la Fundación Nacional de Ciencias, que respalda la idea subyacente que se ilustra. En su informe, la traducción automática se compara con la traducción humana de los diversos textos de física y ciencias de la tierra. La conclusión: los resultados de la traducción automática fueron menos precisos, más lentos, más costosos y menos completos que la traducción humana en todos los ejemplos revisados.


En 1966, el Consejo Nacional de Investigación suspendió abruptamente todo apoyo a la investigación de traducción automática en los Estados Unidos. Después del uso exitoso de computadoras para descifrar códigos secretos alemanes en Inglaterra, los científicos creyeron erróneamente que traducir texto escrito entre idiomas no sería más desafiante que decodificar códigos cifrados. Sin embargo, las complejidades del procesamiento del "lenguaje natural" resultaron mucho más formidables de lo previsto. Los intentos de automatizar la búsqueda en el diccionario y aplicar reglas gramaticales arrojaron resultados absurdos. Después de dos décadas y veinte millones de dólares invertidos, no se vislumbraba ninguna solución, lo que llevó al comité del Consejo Nacional de Investigación a terminar el esfuerzo de investigación.


La desilusión surgió debido a las altas expectativas de aplicaciones prácticas en el campo, a pesar de la falta de suficientes fundamentos teóricos en lingüística. Los investigadores se centraron más en los aspectos teóricos que en las implementaciones prácticas. Además, la disponibilidad limitada de hardware y la inmadurez de las soluciones tecnológicas plantearon desafíos adicionales.

Invierno #2, 1969: Conexionistas y Eclipse de la investigación de redes neuronales

La segunda ola de decepción llegó rápidamente después de la primera, sirviendo como advertencia para los investigadores de IA sobre los peligros de las afirmaciones exageradas. Sin embargo, antes de profundizar en los problemas que siguieron, es necesaria cierta información de fondo.


En la década de 1940, McCulloch y Walter Pitts se embarcaron en la comprensión de los principios fundamentales de la mente y desarrollaron las primeras versiones de las redes neuronales artificiales, inspirándose en la estructura de las redes neuronales biológicas.


Alrededor de una década después, en la década de 1950, la ciencia cognitiva surgió como una disciplina distinta, conocida como la "revolución cognitiva". Muchos de los primeros modelos de IA se vieron influenciados por el funcionamiento del cerebro humano. Un ejemplo notable es el sistema SNARC de Marvin Minsky, la primera red neuronal artificial computarizada que simulaba una rata navegando por un laberinto.

Imagen cortesía de Gregory Loan: Gregory visitó a Marvin Minsky y le preguntó qué le había pasado a su computadora para resolver laberintos. Minsky respondió que se lo prestaron a unos estudiantes de Dartmouth y que lo desarmaron. Sin embargo, le quedaba una "neurona" y Gregory le tomó una foto.


Sin embargo, a fines de la década de 1950, estos enfoques se abandonaron en gran medida cuando los investigadores dirigieron su atención al razonamiento simbólico como la clave de la inteligencia. El éxito de programas como Logic Theorist (1956), considerado el primer programa de IA, y General Problem Solver (1957), diseñado como una máquina universal de resolución de problemas por Allen Newell, Herbert A. Simon y Cliff Shaw de Rand Corporation, desempeñó un papel en este cambio.


Continuó un tipo de trabajo conexionista: persistió el estudio de los perceptrones, defendido por Frank Rosenblatt con entusiasmo inquebrantable. Rosenblatt inicialmente simuló perceptrones en una computadora IBM 704 en el Laboratorio Aeronáutico de Cornell en 1957. Sin embargo, esta línea de investigación se detuvo abruptamente en 1969 con la publicación del libro Perceptrons de Marvin Minsky y Seymour Papert, que delineó las limitaciones percibidas de los perceptrones.

Como escribió Daniel Crevier:


Poco después de la aparición de los perceptrones, un evento trágico ralentizó aún más la investigación en el campo: Frank Rosenblatt, para entonces un hombre destrozado según los rumores, se ahogó en un accidente de navegación. Habiendo perdido a su promotor más convincente, la investigación de redes neuronales entró en un eclipse que duró quince años.


Durante este tiempo, todavía se estaban logrando avances significativos en la investigación conexionista, aunque en menor escala. La introducción de la retropropagación de Paul Werbos en 1974, un algoritmo crucial para entrenar redes neuronales, continuó progresando, aunque con recursos limitados. Asegurar una financiación importante para proyectos conexionistas siguió siendo un desafío, lo que llevó a un declive en su búsqueda.


No fue hasta mediados de la década de 1980 cuando se produjo un punto de inflexión. El invierno llegó a su fin cuando notables investigadores como John Hopfield, David Rumelhart y otros revivieron un interés renovado y generalizado en las redes neuronales. Su trabajo reavivó el entusiasmo por los enfoques conexionistas y allanó el camino para el resurgimiento de la investigación y el desarrollo a gran escala en el campo de las redes neuronales.

Invierno #3, 1974: Brecha de comunicación entre los investigadores de IA y sus patrocinadores

Las altas expectativas y las pretensiones ambiciosas suelen ser un camino directo a la decepción. A fines de la década de 1960 y principios de la de 1970, Minsky y Papert dirigieron el proyecto Micro Worlds en el MIT, donde desarrollaron modelos simplificados llamados micromundos. Ellos definieron el impulso general del esfuerzo como:


Creemos que [los micromundos] son ​​tan importantes que estamos dedicando una gran parte de nuestro esfuerzo a desarrollar una colección de estos micromundos y encontrar cómo usar los poderes sugerentes y predictivos de los modelos sin ser abrumados por su incompatibilidad con el verdad literal.


Pronto, los defensores de los micromundos se dieron cuenta de que incluso los aspectos más específicos del uso humano no podían definirse sin considerar el contexto más amplio de la cultura humana. Por ejemplo, las técnicas utilizadas en SHRDLU se limitaron a dominios específicos de experiencia. El enfoque de los micromundos no condujo a una solución gradual para la inteligencia general. Minsky, Papert y sus estudiantes no pudieron generalizar progresivamente un micromundo en un universo más grande o simplemente combinar varios micromundos en un conjunto más grande.


Se enfrentaron dificultades similares para cumplir con las expectativas en otros laboratorios de IA en todo el país. El proyecto del robot Shakey en Stanford, por ejemplo, no cumplió con las expectativas de convertirse en un dispositivo de espionaje automatizado. Los investigadores se vieron atrapados en un ciclo de creciente exageración, en el que prometían más de lo que podían cumplir en sus propuestas. Los resultados finales a menudo se quedaron cortos y estaban lejos de las promesas iniciales.


DARPA, la agencia del Departamento de Defensa que financia muchos de estos proyectos, comenzó a reevaluar su enfoque y exigió expectativas más realistas de los investigadores.

1971-1975: recortes de DARPA

A principios de la década de 1970, el programa Speech Understanding Research (SUR) de DARPA tenía como objetivo desarrollar sistemas informáticos capaces de comprender comandos verbales y datos para la interacción sin intervención en escenarios de combate. Después de cinco años y un gasto de quince millones de dólares, DARPA canceló abruptamente el proyecto, aunque las razones exactas siguen sin estar claras. Instituciones prominentes como Stanford, MIT y Carnegie Mellon vieron sus contratos multimillonarios reducidos a casi insignificancia.


Daniel Crevier escribe en su libro sobre la filosofía de financiación de DARPA en ese momento:


La filosofía de DARPA entonces era "¡Financiar personas, no proyectos!" Minsky había sido alumno de Licklider en Harvard y lo conocía bien. Como me dijo Minsky, "Licklider nos dio el dinero de una sola vez", y no se preocupó particularmente por los detalles.


Varios contratistas de renombre, incluidos Bolt, Beranek y Newman, Inc. (BBN) y Carnegie Mellon, produjeron sistemas notables durante esos cinco años. Estos sistemas incluyeron SPEECHLESS, HIM, HEARSAY-I, DRAGON, HARPY y HEARSAY-II, que lograron avances significativos en la comprensión del habla conectada y el procesamiento de oraciones de múltiples hablantes con un vocabulario de mil palabras.


Estos sistemas tenían limitaciones para comprender la entrada sin restricciones , lo que dejaba a los usuarios adivinar qué comandos se les aplicaban debido a la gramática restringida. A pesar de la decepción en este aspecto, los investigadores de IA consideraron estos proyectos con orgullo. Por ejemplo, HEARSAY-II, conocido por integrar múltiples fuentes de conocimiento utilizando un dispositivo de "pizarra", fue aclamado como uno de los programas de IA más influyentes jamás escritos.

Pero en este punto, la brecha de comunicación entre los investigadores de IA y sus patrocinadores sobre las expectativas se volvió demasiado grande.

1973: gran disminución en la investigación de IA en el Reino Unido en respuesta al informe Lighthill

La marea menguante de la investigación de la IA no fue exclusiva de los investigadores estadounidenses. En Inglaterra, un informe de Sir James Lighthill, una figura distinguida en dinámica de fluidos y ex ocupante de la Cátedra Lucasiana de Matemáticas Aplicadas de la Universidad de Cambridge, asestó un golpe devastador al estado de la investigación en IA. Lighthill clasificó su investigación en tres partes, denominadas "El ABC del tema".


"A" representaba la automatización avanzada, con el objetivo de reemplazar a los humanos con máquinas especialmente diseñadas. "C" denota investigación del sistema nervioso central (SNC) basada en computadora. Finalmente, "B" simboliza la inteligencia artificial en sí misma, sirviendo como puente entre las categorías A y C.


Si bien las categorías A y C experimentaron períodos alternos de éxito y fracaso, Lighthill enfatizó el sentido generalizado y profundo de desánimo que rodeaba a la Actividad Puente prevista de la categoría B. Como él dice: “ Esto plantea dudas sobre si el concepto completo de IA como un campo integrado de investigación es válida.


El informe provocó un acalorado debate que se transmitió en la serie "Controversia" de la BBC en 1973. Titulado "El robot de propósito general es un espejismo", el debate tuvo lugar en la Royal Institution, con Sir James Lighthill enfrentándose a Donald Michie, John McCarthy y Richard Gregory.


Desafortunadamente, las repercusiones del informe fueron graves y llevaron al desmantelamiento completo de la investigación de IA en Inglaterra. Solo un puñado de universidades, a saber, Edimburgo, Essex y Sussex, continuaron con sus esfuerzos de investigación de IA. No fue hasta 1983 que la investigación en IA experimentó un resurgimiento a mayor escala. Este resurgimiento fue impulsado por la iniciativa de financiación del gobierno británico llamada Alvey, que asignó 350 millones de libras esterlinas a la investigación de IA en respuesta al Proyecto Japonés de Quinta Generación.

Invierno n.° 4, 1987: Colapso del mercado de máquinas LISP

Durante el período conocido como el invierno conexionista, los sistemas simbólicos como el teórico lógico (1956) y el solucionador general de problemas (1957) continuaron progresando mientras enfrentaban limitaciones de hardware. Estos sistemas solo podían manejar ejemplos de juguetes debido a las capacidades informáticas limitadas en ese momento. Esto es lo que dijo Herbert Simon sobre la situación en las décadas de 1950 y 1960:


La gente se alejaba de las tareas que hacían del conocimiento el centro de las cosas porque no podíamos construir grandes bases de datos con las computadoras que teníamos entonces. Nuestro primer programa de ajedrez y el Teórico Lógico se hicieron en una computadora que tenía un núcleo de 64 a 100 palabras y un tambor de scratch con 10,000 palabras de espacio utilizable. Así que la semántica no era el nombre del juego. Recuerdo a un estudiante que tuve que quería hacer una tesis sobre cómo se extraía información de una gran tienda. Le dije “¡De ninguna manera! Solo puede hacer esa tesis en un ejemplo de juguete, y no tendremos ninguna evidencia de cómo se amplía. Será mejor que busques otra cosa que hacer. De modo que la gente se alejó de los problemas en los que el conocimiento era la cuestión esencial.


Alrededor de 1960, McCarthy y Minsky en el MIT desarrollaron LISP , un lenguaje de programación basado en funciones recursivas. LISP se volvió tan importante debido a sus habilidades de procesamiento simbólico y flexibilidad en la gestión de tareas complejas, lo cual es crucial para el desarrollo temprano de la IA. Fue uno de los primeros lenguajes utilizados en la investigación de IA. Sin embargo, no fue hasta principios de la década de 1970, con la llegada de las computadoras con capacidades de memoria significativas, que los programadores pudieron implementar aplicaciones intensivas en conocimiento.


Estos sistemas formaron la base de los "sistemas expertos", cuyo objetivo era incorporar la experiencia humana y reemplazar a los humanos en ciertas tareas. La década de 1980 marcó el surgimiento de los sistemas expertos, transformando la IA de un campo académico a aplicaciones prácticas, y LISP se convirtió en el lenguaje de programación preferido para eso. LISP "fue una desviación radical de los lenguajes existentes" e introdujo nueve ideas innovadoras, según el ensayo de Paul Graham, programador de computadoras y cofundador de Y Combinator y Hacker News.


El desarrollo de sistemas expertos representó un hito significativo en el campo de la IA, cerrando la brecha entre la investigación académica y las aplicaciones prácticas. John McDermott de la Universidad Carnegie Mellon propuso el primer sistema experto llamado XCON (eXpert CONfigurer) en enero de 1980. XCON fue empleado por Digital Equipment Corporation (DEC) para agilizar el proceso de configuración de sus computadoras VAX. Para 1987, XCON procesó una cantidad significativa de pedidos, demostrando su impacto y efectividad.


En 1981, CMU comenzó a trabajar en un nuevo sistema llamado Xsel. Posteriormente, DEC se hizo cargo del desarrollo y las pruebas de campo comenzaron en octubre de 1982. Si bien Xcon y Xsel recibieron una publicidad significativa, todavía estaban en la etapa de prototipo. Bruce Macdonald, entonces gerente del programa Xsel, comenzó a protestar porque la publicidad superaba con creces los logros, pero el vicepresidente de ventas no estaba dispuesto a detenerse. De hecho, Macdonald recuerda la reunión con altos ejecutivos en la que el vicepresidente de ventas lo miró y le dijo: “Has estado trabajando en esto durante tres años. ¿No está listo?


A principios de la década de 1980 se produjo una afluencia de historias de éxito de sistemas expertos, lo que condujo a la formación de grupos de IA en muchas grandes empresas. El auge de las computadoras personales, la popularidad de las películas de Star Wars y revistas como Discover y High Technology contribuyeron a la fascinación del público por la IA. El auge de la biotecnología de mil millones de dólares a fines de la década de 1970 impulsó el interés de inversión en alta tecnología, lo que llevó a los principales expertos en inteligencia artificial a embarcarse en nuevas empresas :


  • Edward Feigenbaum, a quien a menudo se le llama el "padre de los sistemas expertos", con algunos de sus colegas de Stanford, formaron Teknowledge, Inc.
  • Los investigadores de Carnegie Mellon incorporaron el Grupo Carnegie.
  • Hubo suficientes spin-offs del MIT para crear una tira en Cambridge, Massachusetts, conocida como AI Alley. Estas nuevas empresas incluyeron Symbolics, Lisp Machines, Inc. y Thinking Machines Corporation.
  • El investigador Larry Harris dejó Dartmouth para formar la Corporación de Inteligencia Artificial.
  • Roger Schank, en Yale, supervisó la formación de Cognitive Systems, Inc.


Las empresas que aparecieron en ese momento podrían dividirse en tres áreas principales enumeradas desde la que tiene las ventas más grandes hasta la que tiene las ventas más pequeñas:

  1. Hardware y software relacionados con la IA, específicamente microcomputadoras llamadas máquinas LISP, dedicadas a ejecutar programas LISP a velocidades cercanas a las de un mainframe
  2. Las grandes corporaciones utilizaban software llamado "herramientas de desarrollo de sistemas expertos" o "shells" para desarrollar sus sistemas expertos internos.
  3. Aplicaciones reales de sistemas expertos


LISP machine

En 1985, 150 empresas gastaron colectivamente mil millones de dólares en grupos internos de IA . En 1986, las ventas estadounidenses de hardware y software relacionados con la IA alcanzaron los 425 millones de dólares, con la formación de 40 nuevas empresas y una inversión total de 300 millones de dólares.

El crecimiento explosivo trajo desafíos a medida que la academia se sintió abarrotada por la afluencia de reporteros, capitalistas de riesgo, cazatalentos de la industria y empresarios. La reunión inaugural de la Asociación Estadounidense de Inteligencia Artificial en 1980 atrajo a alrededor de mil investigadores , mientras que en 1985, una reunión conjunta de AAAI e IJCAI tuvo una asistencia cercana a los seis mil . El ambiente cambió de vestimenta informal a vestimenta formal.


En 1984, en la reunión anual de AAAI, Roger Schank y Marvin Minsky advirtieron sobre el próximo "Invierno de IA", prediciendo un estallido inminente de la burbuja de IA, que sucedió tres años después, y el mercado de IA especializada basada en LISP. el hardware colapsó .


Sun-1, the first generation of UNIX computer workstations and servers produced by Sun Microsystems, launched in May 1982

Sun Microsystems y empresas como Lucid ofrecieron potentes estaciones de trabajo y entornos LISP como alternativas. Las estaciones de trabajo de uso general plantearon desafíos para LISP Machines, lo que llevó a empresas como Lucid y Franz LISP a desarrollar versiones cada vez más potentes y portátiles de LISP para sistemas UNIX. Más tarde, surgieron computadoras de escritorio de Apple e IBM con arquitecturas más simples para ejecutar aplicaciones LISP. En 1987, estas alternativas igualaron el rendimiento de las costosas máquinas LISP, lo que hizo que las máquinas especializadas quedaran obsoletas. La industria de 500 millones de dólares fue reemplazada rápidamente en un solo año.





La década de 1990: resistencia al despliegue y mantenimiento de nuevos sistemas expertos

Después del colapso del mercado de máquinas LISP, las máquinas más avanzadas ocuparon su lugar, pero finalmente corrieron la misma suerte. A principios de la década de 1990, la mayoría de las empresas comerciales de LISP, incluidas Symbolics y Lucid Inc., habían quebrado. Texas Instruments y Xerox también se retiraron del campo. Algunas empresas clientes continuaron manteniendo los sistemas basados ​​en LISP, pero esto requería trabajo de soporte.

primer macintosh

En la década de 1990 y más allá, el término "sistema experto" y el concepto de sistemas de IA autónomos desaparecieron en gran medida del léxico de TI. Hay dos interpretaciones de esto. Una opinión es que "los sistemas expertos fallaron" porque no pudieron cumplir con su promesa exagerada, lo que llevó al mundo de TI a seguir adelante. La otra perspectiva es que los sistemas expertos fueron víctimas de su éxito. A medida que los profesionales de TI adoptaron conceptos como motores de reglas, estas herramientas pasaron de ser herramientas independientes para desarrollar sistemas expertos especializados a convertirse en herramientas estándar entre muchas.

Invierno n.º 5, 1988: Sin inteligencia artificial de alto nivel, sin dinero

​​En 1981, los japoneses dieron a conocer su ambicioso plan para el proyecto de computadora de quinta generación, lo que generó preocupación en todo el mundo. Estados Unidos, con su historial de financiamiento del Departamento de Defensa para la investigación y la experiencia técnica de la IA, respondió con el lanzamiento de la Iniciativa de Computación Estratégica (SCI) en 1983. La SCI tenía como objetivo desarrollar hardware informático avanzado e IA en un plazo de diez años. Los autores de Strate gic Computing: DARPA and the Quest for Machine Intelligence, 1983-1993 describen “la máquina imaginada por SCI”:


Ejecutaría diez mil millones de instrucciones por segundo para ver, oír, hablar y pensar como un ser humano. El grado de integración requerido rivalizaría con el logrado por el cerebro humano, el instrumento más complejo conocido por el hombre.


Un proyecto notable bajo la Iniciativa de Computación Estratégica (SCI) fue el proyecto "Smart Truck" o Vehículo Terrestre Autónomo (ALV) . Recibió una parte significativa del presupuesto anual de SCI y tenía como objetivo desarrollar un robot versátil para varias misiones. Estas misiones incluyeron entrega de armas, reconocimiento, manejo de municiones y reabastecimiento en la retaguardia. El objetivo era crear un vehículo que pudiera navegar por terreno accidentado, superar obstáculos y utilizar camuflaje. Inicialmente, los prototipos con ruedas se limitaban a carreteras y terrenos llanos, pero el producto final se concibió para atravesar cualquier terreno sobre patas mecánicas.


Vehículo Terrestre Autónomo (ALV)


A fines de la década de 1980, se hizo evidente que el proyecto no estaba cerca de alcanzar los niveles deseados de inteligencia artificial. El desafío principal surgió de la falta de una estructura de gestión eficaz y estable que pudiera coordinar diferentes aspectos del programa y avanzarlos colectivamente hacia la meta de la inteligencia artificial. Se hicieron varios intentos para imponer esquemas de manejo en SCI, pero ninguno resultó exitoso. Además, los ambiciosos objetivos de SCI, como la capacidad de conducción autónoma del proyecto ALV, excedieron lo que se podía lograr en ese momento y se asemejaron a los sistemas de IA multimodal contemporáneos y al elusivo concepto de AGI (inteligencia general artificial).


Bajo el liderazgo de Jack Schwarz, quien asumió el control de la Oficina de Tecnología de Procesamiento de la Información (IPTO) en 1987, se redujo la financiación para la investigación de IA dentro de DARPA . En Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence , Pamela McCorduck describe la actitud de Schwarz hacia la Iniciativa de Computación Estratégica y el papel de la IA:


Schwartz creía que DARPA estaba usando un modelo de natación: establecer una meta y remar hacia ella independientemente de las corrientes o las tormentas. En cambio, DARPA debería usar un modelo de surfista: esperar la gran ola, lo que permitiría que sus fondos relativamente modestos surfearan con gracia y éxito hacia ese mismo objetivo. A la larga, la IA era posible y prometedora, pero su ola aún no se había elevado.


A pesar de no alcanzar la inteligencia artificial de alto nivel, el SCI logró hitos técnicos específicos. Por ejemplo, en 1987, el ALV había demostrado capacidades de conducción autónoma en carreteras de dos carriles, evitación de obstáculos y conducción todoterreno en diferentes condiciones. El uso de cámaras de video, escáneres láser y unidades de navegación inercial iniciadas por el programa SCI ALV sentó las bases para los desarrollos comerciales de automóviles sin conductor de la actualidad.


El Departamento de Defensa invirtió $1,000,417,775.68 en el SCI entre 1983 y 1993, como se dijo en Informática Estratégica: DARPA y la Búsqueda de Inteligencia Artificial, 1983-1993 . El proyecto finalmente fue reemplazado por la Iniciativa de Computación Estratégica Acelerada en la década de 1990 y más tarde por el Programa de Computación y Simulación Avanzada.

Conclusión

¡Frío! Seguramente los inviernos de IA no eran divertidos. Pero parte de la investigación que hizo posible los avances recientes con modelos de lenguaje grandes (LLM) se realizó durante esos tiempos. Durante el apogeo de los sistemas expertos simbólicos, los investigadores conexionistas continuaron su trabajo en redes neuronales, aunque en menor escala. El descubrimiento de Paul Werbos de la retropropagación, un algoritmo crucial para el entrenamiento de redes neuronales, fue fundamental para seguir avanzando.


A mediados de la década de 1980, el "invierno conexionista" llegó a su fin cuando investigadores como Hopfield, Rumelhart, Williams, Hinton y otros demostraron la eficacia de la retropropagación en las redes neuronales y su capacidad para representar distribuciones complejas. Este resurgimiento se produjo simultáneamente con el declive de los sistemas expertos simbólicos.


Después de este período, la investigación sobre redes neuronales floreció sin más contratiempos, lo que condujo al desarrollo de numerosos modelos nuevos, lo que eventualmente allanó el camino para el surgimiento de los LLM modernos. En la próxima edición, profundizaremos en este fructífero período de investigación de redes neuronales. ¡Manténganse al tanto!

Historia de LLM por Turing Post:

  1. La era de la traducción mecánica y cómo se estrelló
  2. Fascinante nacimiento de la IA, los primeros chatbots y el poder del Departamento de Defensa de EE. UU.
  3. La historia de AI Winters y lo que nos enseña hoy


Continuará…

Esta historia fue publicada originalmente en Turing Post. Si te gustó este número, suscríbete para recibir el cuarto episodio de la Historia de los LLM directamente en tu bandeja de entrada.