paint-brush
De los sueños a la realidad: la historia de la evolución de la IApor@nehapant
3,504 lecturas
3,504 lecturas

De los sueños a la realidad: la historia de la evolución de la IA

por Neha Pant11m2024/09/11
Read on Terminal Reader

Demasiado Largo; Para Leer

La evolución de la IA comenzó hace 100 años en los sueños y la conciencia colectiva de los humanos. Este artículo analiza la historia de la evolución de la IA desde sus inicios.
featured image - De los sueños a la realidad: la historia de la evolución de la IA
Neha Pant HackerNoon profile picture

Si bien la IA ha generado mucho revuelo en los últimos años, las bases para su desarrollo se sentaron a principios del siglo XX.


Foto de Steve Johnson en Unsplash


La evolución de la IA

Con el revuelo que ha despertado la IA, algunos de nosotros podemos pensar que se trata de un fenómeno reciente, pero no es así. Todo empezó a principios del siglo XX. Sin embargo, los trabajos sustanciales en este campo recién empezaron a realizarse a mediados de ese siglo. Fue en esa época cuando el matemático visionario Alan Turing concibió la creación de máquinas inteligentes, un sueño que se hizo realidad gracias a la llegada de tecnologías como el aprendizaje automático y el procesamiento del lenguaje natural.


Esta historia de evolución de más de 100 años es intrigante. Es como una bellota que se siembra en el campo, se riega y se nutre, y luego se espera a que se convierta en un gran roble. Para entender cómo las primeras bases evolucionaron hasta convertirse en la tecnología inteligente que vemos hoy, profundicemos en la historia de la inteligencia artificial.

Los primeros años del siglo XX

Antes de que los científicos exploren cualquier concepto o idea de interés científico, éste nace en la mente de los artistas. Lo mismo ocurre con la idea de los “seres humanos artificiales” o “robots” que germinó en la mente del dramaturgo checo Karel Capek y culminó en su exitosa obra de 1920 “RUR - Rossum's Universal Robots”. Se le atribuye la invención del término “robot”, que significa trabajadores.


Estamos entusiasmados con los coches autónomos de Google, pero ¿sabemos que el concepto de coches sin conductor se lanzó por primera vez en 1925? Los primeros coches sin conductor que recorrieron las calles de la ciudad de Nueva York fueron coches radiocontrolados lanzados por Houdina Radio Control. Tuvieron que pasar 90 años hasta que Alphabet Inc., la empresa matriz de Google, lanzó Waymo, que ahora ofrece servicios comerciales de robotaxi, una maravilla de la tecnología inteligente.


Una vez que una idea comienza en una parte del mundo, viaja rápidamente y adquiere nuevas dimensiones. En 1929, el profesor japonés Makoto Nishimura creó con cierto éxito lo que Karel Capek había imaginado en su obra: ¡un robot! Esta maravilla japonesa llamada Gakutensoku (que significa aprender de las leyes de la naturaleza) podía mover la cabeza y las manos y cambiar las expresiones faciales. Nishimura lo logró utilizando un mecanismo de presión de aire.


Parece que la corriente de conciencia humana soñaba colectivamente con máquinas que no sólo pudieran emular el trabajo humano, sino que también pudieran hacer cosas que los humanos no podían. HG Wells, el autor futurista que concibió conceptos como el viaje en el tiempo, la invisibilidad, la bioingeniería y más, predijo en 1937 que “toda la memoria humana puede ser, y probablemente en poco tiempo lo será, accesible a cada individuo” y que “cualquier estudiante, en cualquier parte del mundo, podrá sentarse con su proyector [de microfilm] en su propio estudio, a su conveniencia, para examinar cualquier libro o documento, en una réplica”. Podemos asumir con seguridad que estaba soñando con las computadoras futuras que usamos hoy.


Más tarde, en 1949, el informático estadounidense Edmund Callis Berkley publicó el libro “Cerebros gigantes o máquinas que piensan”. Ésta fue la primera vez que se describía en un libro el prototipo de lo que se puede denominar el primer ordenador personal, Simon. La parte más interesante del libro para los aficionados a la ciencia y la tecnología fue el estudio de los cerebros mecánicos pioneros (los primeros ordenadores) de la época: el analizador diferencial del MIT, la calculadora controlada por secuencias de IBM de Harvard, el ENIAC de la Escuela Moore y la calculadora de relés de los Laboratorios Bell.

La década de 1950: la época en que nació la IA

Si bien a principios del siglo XX los seres humanos todavía creaban máquinas inteligentes en sus mentes o daban pequeños pasos hacia la creación de máquinas reales, en la década de 1950 se dieron pasos reales en esa dirección. Fue, con diferencia, el período más estimulante de la historia de la IA.


Para pensar con la misma libertad y creatividad que un niño, hay que ser un niño de corazón. Jugar es una de las mejores maneras de mantener vivo a ese niño. Pero Alan Turing fue un paso más allá cuando ideó “El juego de la imitación”, conocido popularmente como el Test de Turing, en su influyente artículo de 1950 “Máquinas informáticas e inteligencia”. Este juego fue diseñado para evaluar el comportamiento inteligente de una máquina, lo que dificultaba distinguirla de un ser humano. En la actualidad, utilizamos el Test de Turing inverso, conocido popularmente como “Test de Turing público completamente automatizado para diferenciar entre ordenadores y humanos” o CAPTCHA, para determinar que un ser humano y no un robot está operando la máquina.


En 1948, Turing comenzó a escribir un programa para que un ordenador pudiera jugar una partida de ajedrez. En 1952, implementó este programa en Ferranti Mark 1. Desafortunadamente, el ordenador no podía usar el programa para jugar, pero Turing activó a su niño interior para jugar la partida de ajedrez siguiendo las instrucciones del manual del algoritmo. Mucho después, el gran maestro de ajedrez ruso y ex campeón mundial de ajedrez, Garry Kasparov, miró la grabación de la partida y la promocionó como "una partida de ajedrez reconocible".


Pero la fascinación por los juegos no se limitaba a Turing. Otro pionero de los juegos de ordenador y la inteligencia artificial, Arthur Samuel, presentó en 1952 el primer programa de aprendizaje automático para jugar a las damas, llamado “Samuel Checkers-Playing Program”. Samuel vio el potencial de los juegos en la investigación sobre inteligencia artificial, ya que facilitaban la evaluación del rendimiento del ordenador en comparación con el de un ser humano. La brillantez de Samuel quedó aún más demostrada cuando popularizó el término “aprendizaje automático” en 1959, una investigación que había iniciado en 1949.


La era de mediados de los años 50 estaba repleta de investigaciones y trabajos en torno a la inteligencia artificial. De hecho, el término “inteligencia artificial” o “IA”, como se le llama popularmente, fue acuñado en 1955 por otra mente deslumbrante que también es uno de los fundadores de la IA como disciplina: John McCarthy. Acuñó el término en un documento en coautoría, pero el término ganó popularidad en su taller de verano en el Dartmouth College al que se dice que asistieron las mentes informáticas más importantes de la época. No se detuvo allí, ya que perfeccionó aún más sus ideas sobre la IA al inventar el lenguaje de programación Lisp en 1958. Luego publicó “Programs with Common Sense” en 1959, donde describió el programa para resolver problemas manipulando oraciones; se llamó Advice Taker.


A todos estos inventos y descubrimientos de la década de 1950 les siguieron otros trabajos pioneros durante las décadas de 1960 y 1970. El principal de ellos fue el programa interactivo ELIZA. Desarrollado por Joseph Weizenbaum en 1965, este programa podía mantener un diálogo sobre cualquier tema en inglés, ¡de forma muy similar a los chatbots actuales! Lo más curioso de este programa era que mucha gente le atribuía sentimientos similares a los humanos, una característica que todavía es esquiva y discutible.


La metodología de “aprendizaje profundo” que se utiliza en el desarrollo de la IA actual fue concebida en 1968 por el matemático soviético Alexey Ivakhnenko en su trabajo “Método grupal de manejo de datos”, que se publicó en la revista “Avtomatika”. Puede parecer increíble, pero los rápidos avances tecnológicos que vemos hoy se basan en un trabajo lento y constante realizado a mediados del siglo XX.

La década de 1980: una época de mayor acción

Pero las cosas no se mantuvieron lentas y constantes. Cobraron impulso en la década de 1980, cuando el interés en la IA y la consiguiente financiación e investigación en ese campo crecieron a pasos agigantados. En ese período se desarrollaron programas que replicaban las capacidades de toma de decisiones de los expertos humanos en campos específicos.


1980 fue el año de la primera conferencia de la Asociación para el Avance de la Inteligencia Artificial, o AAAI, fundada en 1979. Con su 38.ª conferencia anual celebrada este año, esta asociación sigue fomentando la investigación en el campo de la IA y el intercambio de ideas científicas entre los profesionales globales en el campo. Pero hubo un momento en 1984 en el que la AAAI había predicho lo que se llamó un " invierno de la IA " , una época de investigación lenta debido a la reducción del interés en la IA.


Sin embargo, antes de esta predicción, el Ministerio de Comercio Internacional e Industria japonés destinó la asombrosa suma de 850 millones de dólares al Proyecto de Computadoras de Quinta Generación en 1981. El proyecto, que duró diez años, fue ambicioso, se adelantó a su tiempo y fue un fracaso comercial: un ejemplo perfecto de ser una moda pasajera en lugar de un espíritu de la época. El proyecto, sin embargo, ejemplificó la filosofía japonesa de IKIGAI, ya que los científicos explotaron su entusiasmo para impulsar el desarrollo de la programación lógica concurrente.

Finales de la década de 1980 y principios de la de 1990: ¿un invierno para la IA?

Contrariamente a las predicciones meteorológicas del departamento meteorológico, la predicción de la AAAI de un invierno de IA resultó correcta. El final del proyecto de Quinta Generación fue una de las causas de la pérdida de interés e inversión en el campo de la inteligencia artificial a finales de los años 1980. Pero otros reveses en los mercados de sistemas expertos y máquinas, incluido el colapso del hardware especializado basado en LISP debido a alternativas más baratas de IBM y Apple en 1987, también contribuyeron al desinterés en la IA.


Sin embargo, no todo fue malo durante este período. El padre del periodista estadounidense asesinado Daniel Pearl y ganador del premio Turing 2011, el profesor Judea Pearl, publicó en 1988 “Razonamiento probabilístico en sistemas inteligentes”. El defensor del enfoque probabilístico de la inteligencia artificial e inventor de las redes bayesianas fue un pensador revolucionario cuyos modelos bayesianos se convirtieron en una herramienta importante para trabajos importantes en ingeniería y ciencias naturales.


Puede que el Jabberwock sea un personaje ficticio aterrador de Alicia en el país de las maravillas, pero su propósito era el mismo que el de Jabberwacky, un chatbot desarrollado en 1988 por Rollo Carpenter: deleitar y entretener. El Jabberwacky estaba equipado para simular una conversación humana natural de forma entretenida y divertida.

1993-2011: El ascenso del gigante dormido

El invierno no dura mucho, especialmente en las regiones subtropicales, y cuando se va, la primavera trae consigo hermosas flores que son del agrado de todos. Algo similar ocurrió con el invierno de la IA. Si bien la ominosa predicción del fin de la era humana en “La Singularidad Tecnológica Venidera” de Vernor Vinge en 1993 puede habernos asustado, este artículo también predijo que dentro de 30 años “tendríamos la tecnología para crear una inteligencia sobrehumana”. Treinta años después, puede que no hayamos logrado lo que él predijo, pero parece que nos dirigimos en esa dirección.


En 1997, el mundo fue testigo de la derrota de Gary Kasparov, el actual campeón mundial de ajedrez, a manos de Deep Blue, el primer programa informático para jugar al ajedrez. Este incidente fue un momento decisivo en la historia de la IA y, por tanto, se convirtió en la influencia creativa de muchos libros y películas. Ese mismo año, Dragon lanzó NaturallySpeaking 1.0, también conocido como DNS, un software de reconocimiento de voz que funcionaría en Windows.


En el año 2000 se produjeron nuevos avances en este campo con el desarrollo de Kismet, un robot capaz de simular emociones humanas. Este y otros robots fueron idea de la profesora Cynthia Breazeal, que todavía era estudiante en el Laboratorio de Inteligencia Artificial del MIT. Los sueños que los dramaturgos de principios del siglo XX tenían en mente empezaban a tomar forma.


La odisea espacial de Yuri Gagarin y el alunizaje de Neil Armstrong fueron dignos de celebración, pero también lo fue el alunizaje de Spirit y Opportunity, los dos exploradores estadounidenses, en Marte en 2003. Operaron con éxito en el planeta sin intervención humana, un gran triunfo para el mundo de la tecnología.


Twitter, Facebook y Netflix, los gigantes tecnológicos contemporáneos, comenzaron a utilizar la IA para sus algoritmos de publicidad y UX hace casi dos décadas, en 2006. Las señales de que la IA como tecnología realmente despegaría habían comenzado a hacerse visibles. La victoria de Deep Blue en 1997 fue un atisbo de la investigación de IBM en el campo de la IA e IBM Watson mostró hasta dónde los había llevado su investigación cuando el programa derrotó a Brad Rutter y Ken Jennings en el desafío Jeopardy! en 2011.


Fue Watson de IBM el que hizo que industrias desde el comercio minorista hasta los servicios financieros pensaran en la posibilidad de implementar IA en las empresas. 2011 también fue el año en que se lanzó Siri, un asistente virtual de Apple.

De 2012 a la actualidad: los grandes avances de la IA

El tiempo es un continuo y todo lo que hacemos, incluso la IA, es parte de este continuo. Hemos visto cómo los pequeños pasos del siglo XX condujeron a los grandes descubrimientos e inventos de la década de 2000. A medida que el primer cuarto de la década de 2000 se acerca a su fin, vemos lo lejos que ha llegado la IA, especialmente en la última década y un poco más.


Uno de estos viajes es el del modelo de aprendizaje profundo. Desde su humilde concepción en 1968, el modelo alcanzó una dimensión gigantesca cuando Jeff Dean y Andrew Ng, de Google, conectaron 16.000 procesadores de ordenador para crear una de las redes neuronales más grandes con más de mil millones de conexiones para el aprendizaje automático en 2012. Alimentaron la red con 10 millones de imágenes aleatorias de gatos de vídeos de YouTube y sucedió algo extraordinario: la red empezó a reconocer gatos. ¡Los amantes de los gatos pueden hacer ruido!


El otro camino es el de los robots. Desde Universal Robots de Karel Capek, Rossum, hasta Gakutensoku de Makoto Nishimura, pasando por el chatbot ELIZA de Joseph Weizenbaum y Kismet de Cynthia Breazeal, el robot había recorrido un largo camino, pero fue en el año 2016 cuando Sophia, la robot humanoide con rasgos y expresiones humanas realistas, se convirtió en la primera "ciudadana robot". No se sorprendan, no se sorprendan.


Algunas cosas nos sacuden y otras sacuden a la humanidad. Una de ellas ocurrió en 2017, cuando el mundo tecnológico quedó atónito ante el comportamiento de dos chatbots de Facebook que parecían haber desarrollado su propio lenguaje de negociación, incomprensible para los humanos, pero que mostraban ciertos patrones para convencer a los ingenieros de inteligencia artificial de que no se trataba de un parloteo aleatorio, sino de un lenguaje que realmente entendían. Si bien esto no anunció la llegada de la singularidad como predijo Vernor Vinge, las negociaciones de los bots, incluido el hecho de que fingieran interés en un artículo para convencer al otro de un compromiso posterior, dejaron a los humanos boquiabiertos ante las futuras posibilidades de las máquinas.


En marzo de 2020, llegó la primera ola de la pandemia de Covid-19 que alteró el trabajo tal como lo conocíamos hasta entonces. Mientras las empresas comenzaban a buscar formas de trabajar de forma remota, Open AI lanzó su Transformador Generativo Preentrenado, o GPT-3, como se lo conoce popularmente, en mayo de 2020. El GPT-3 es uno de los modelos de aprendizaje de idiomas más grandes que puede realizar tareas con mayor precisión debido a su mayor capacidad y mayor número de parámetros: 175 mil millones, que es 10 veces más que su modelo competidor más cercano, Turing-NLG.


Desde entonces, se han lanzado nuevas versiones mejoradas, GPT-3.5 y GPT-4. Más recientemente, también se ha anunciado GPT-5, que promete inteligencia artificial avanzada, empatía, confidencialidad, personalización dinámica y cadena de pensamiento y razonamiento paso a paso.


Nuestro viaje nos ha traído al presente, donde la IA permea cada aspecto de nuestras vidas. Desde asistentes virtuales que anticipan nuestras necesidades hasta autos autónomos que recorren las calles de la ciudad, los sueños, alguna vez fantásticos, de los pioneros de la IA se han convertido en nuestra realidad diaria.


Pero, a medida que avanzamos hacia el futuro, la trama se complica con dilemas éticos, impacto social y la búsqueda de inteligencia artificial general, la frontera definitiva. La saga de la IA continúa desarrollándose, cautivando nuestra imaginación y desafiando nuestra comprensión de lo que significa crear inteligencia a partir de silicio y código.


Y así, la historia de la Inteligencia Artificial, una fascinante mezcla de ingenio humano y evolución tecnológica, avanza hacia lo desconocido, invitándonos a todos a presenciar los próximos capítulos de esta fascinante narrativa.


Apéndice:


  1. https://www.forbes.com/sites/gilpress/2021/05/19/114-milestones-in-the-history-of-artificial-intelligence-ai/?sh=2f563b0474bf
  2. https://www.tableau.com/data-insights/ai/history
  3. https://www.researchgate.net/publication/334539401_A_Brief_History_of_Artificial_Intelligence_On_the_Past_Present_and_Future_of_Artificial_Intelligence
  4. https://www.researchgate.net/publication/328703834_Historical_Evolution_Current_Future_Of_Artificial_intelligence_AI
  5. https://ourworldindata.org/brief-history-of-ai
  6. https://www.techtarget.com/searchEnterpriseAI/tip/The-history-of-artificial-intelligence-Complete-AI-timeline
  7. https://edoras.sdsu.edu/\~vinge/misc/singularity.html
  8. https://en.wikipedia.org/wiki/Fifth_Generation_Computer_Systems
  9. https://www.ibm.com/watson?mhsrc=ibmsearch_a&mhq=watson
  10. https://computerhistory.org/profile/john-mccarthy/#:\~:text=McCarthy acuñó el término “IA”, lenguaje de programación lisp en 1958. .
  11. https://history.computer.org/pioneers/samuel.html
  12. https://spectrum.ieee.org/the-short-strange-life-of-the-first-friendly-robot#toggle-gdpr
  13. https://monoskop.org/images/b/bc/Berkeley_Edmund_Callis_Giant_Brains_or_Machines_That_Think.pdf
  14. https://www.gutenberg.org/files/59112/59112-h/59112-h.htm
  15. https://en.wikipedia.org/wiki/Turing_Award
  16. https://en.wikipedia.org/wiki/Judea_Pearl
  17. https://en.wikipedia.org/wiki/H._G._Wells
  18. https://en.wikipedia.org/wiki/John_McCarthy_(científico_informático)
  19. https://en.wikipedia.org/wiki/Cynthia_Breazeal
  20. Open AI introdujo GPT-3 anteriormente, como sucesor de su modelo de lenguaje (LM) anterior, GPT-2. .
  21. https://www.cnet.com/tech/services-and-software/what-happens-when-ai-bots-invent-their-own-language/
  22. https://www.theatlantic.com/technology/archive/2017/06/artificial-intelligence-develops-its-own-non-human-language/530436/
  23. https://www.independent.co.uk/life-style/facebook-artificial-intelligence-ai-chatbot-new-language-research-openai-google-a7869706.html