"Nuestra Inteligencia es lo que nos hace humanos y la IA es una extensión de esa Cualidad" -Yan LeCun
Desde la llegada de las redes neuronales (también conocidas como redes neuronales artificiales), la industria de la IA ha disfrutado de un éxito sin precedentes. Las redes neuronales son la fuerza impulsora detrás de los sistemas modernos de inteligencia artificial y se modelan a partir del cerebro humano. La investigación moderna de IA implica la creación e implementación de algoritmos que tienen como objetivo imitar los procesos neuronales del cerebro humano para crear sistemas que aprenden y actúan de manera similar a los seres humanos.
En este artículo, intentaremos comprender el enfoque inspirado en el cerebro para construir sistemas de IA. Vale la pena señalar que, si bien este tema es intrínsecamente amplio, seré lo más breve y sucinto posible. Planeo tratar los subtemas que tienen subramas más complejas como artículos independientes y, por supuesto, dejaré las referencias al final del artículo.
Historia del enfoque de la IA inspirado en el cerebro: aquí discutiremos cómo los científicos Norman Weiner y Warren McCulloch lograron la convergencia de la neurociencia y la informática, cómo el Perceptrón de Frank Rosenblatt fue el primer intento real de imitar la inteligencia humana y cómo su fracaso produjo un trabajo innovador que serviría como plataforma para las redes neuronales.
Cómo funciona el cerebro humano y cómo se relaciona con los sistemas de IA: en esta sección, profundizaremos en la base biológica del enfoque de la IA inspirado en el cerebro. Discutiremos la estructura básica y las funciones del cerebro humano, comprenderemos su bloque de construcción central, la neurona, y cómo trabajan juntos para procesar información y permitir acciones complejas.
Los principios básicos detrás del enfoque de IA inspirado en el cerebro: Aquí discutiremos los conceptos fundamentales detrás del enfoque de IA inspirado en el cerebro. Explicaremos cómo funcionan conceptos como; Redes neuronales, procesamiento jerárquico y plasticidad y cómo las técnicas de procesamiento paralelo, representaciones distribuidas y retroalimentación recurrente ayudan a la IA a imitar el funcionamiento del cerebro.
Desafíos en la construcción de sistemas de IA modelados a partir del cerebro humano: aquí hablaremos sobre los desafíos y las limitaciones inherentes al intento de construir sistemas que imiten el cerebro humano. Desafíos como; la complejidad del cerebro y la falta de una teoría unificada de la cognición exploran las formas en que se abordan estos desafíos y limitaciones.
¡Empecemos!
El impulso para construir máquinas que sean capaces de un comportamiento inteligente debe gran parte de su inspiración al profesor del MIT,
Norbert Weiner creía que las principales oportunidades en la ciencia residían en la exploración de lo que él denominó Regiones Límite : áreas de estudio que no están claramente dentro de una determinada disciplina, sino más bien una mezcla de disciplinas como el estudio de la medicina y la ingeniería que se unen para crear el campo de la ciencia. Ingeniería Médica-, fue citado diciendo:
“Si la dificultad de un problema fisiológico es de naturaleza matemática, diez fisiólogos ignorantes de las matemáticas llegarán exactamente tan lejos como un fisiólogo ignorante de las matemáticas”
En el año 1934, Weiner y un par de otros académicos se reunían mensualmente para discutir artículos relacionados con la ciencia de la región fronteriza.
Fue una catarsis perfecta para ideas a medias, autocrítica insuficiente, autoconfianza exagerada y pomposidad - Norman Weiner
A partir de estas sesiones y de su propia investigación personal, Weiner aprendió sobre nuevas investigaciones sobre sistemas nerviosos biológicos, así como sobre trabajos pioneros en computadoras electrónicas, y su inclinación natural fue combinar estos dos campos. Y así, se formó una relación entre la neurociencia y la informática. Esta relación se convirtió en la piedra angular para la creación de la inteligencia artificial, tal como la conocemos.
Después de la Segunda Guerra Mundial, Wiener comenzó a formular teorías sobre la inteligencia tanto en humanos como en máquinas y este nuevo campo se denominó
Mientras asistía a una conferencia científica en Nueva York, entró en contacto con artículos escritos por colegas sobre mecanismos de retroalimentación biológica. Al año siguiente, en colaboración con su brillante protegido de 18 años llamado Walter Pitts, McCulloch propuso una teoría sobre cómo funciona el cerebro, una teoría que ayudaría a fomentar la percepción generalizada de que las computadoras y los cerebros funcionan esencialmente de la misma manera.
Basaron sus conclusiones en la investigación de McCulloch sobre la posibilidad de que las neuronas procesen números binarios (para los ignorantes, las computadoras se comunican a través de números binarios). Esta teoría se convirtió en la base de lo que se convirtió en el primer modelo de una red neuronal artificial, que se denominó McCulloch-Pitts Neuron (MCP).
El MCP sirvió como base para la creación de la primera red neuronal que se conoció como
El Perceptrón esencialmente escaló la neurona MCP de una neurona artificial a una red de neuronas, pero, desafortunadamente, el perceptrón tuvo algunos desafíos técnicos que limitaron su aplicación práctica, la más notable de sus limitaciones fue su incapacidad para realizar operaciones complejas (como clasificar entre más de un elemento, por ejemplo, un perceptrón no podría realizar la clasificación entre un gato, un perro y un pájaro).
En el año 1969, un libro publicado por
Back Propagation espera resolver el problema de la clasificación de datos complejos que dificultaba la aplicación industrial de las Redes Neuronales en ese momento. Se inspiró en la plasticidad sináptica; la forma en que el cerebro modifica la fuerza de las conexiones entre las neuronas y, como tal, mejora el rendimiento. Back Propagation fue diseñado para imitar el proceso en el cerebro que fortalece las conexiones entre las neuronas a través de un proceso llamado ajuste de peso.
A pesar de la propuesta inicial de Paul Werbos, el concepto de retropropagación solo obtuvo una adopción generalizada cuando investigadores como
"Las personas son más inteligentes que las computadoras actuales porque el cerebro emplea una arquitectura computacional básica que es más adecuada para lidiar con un aspecto central de las tareas de procesamiento de información natural en las que las personas son tan buenas". - Procesamiento distribuido en paralelo
Hemos discutido cómo los investigadores comenzaron a modelar la IA para imitar el cerebro humano, veamos ahora cómo funciona el cerebro y definamos la relación entre el cerebro y los sistemas de IA.
El cerebro humano procesa esencialmente los pensamientos mediante el uso de neuronas, una neurona se compone de 3 secciones centrales; La dendrita, el axón y el soma. La dendrita es responsable de recibir señales de otras neuronas, el soma procesa la información recibida de la dendrita y el axón es responsable de transferir la información procesada a la siguiente dendrita en la secuencia.
Para comprender cómo el cerebro procesa el pensamiento, imagina que ves un automóvil que viene hacia ti, tus ojos inmediatamente envían señales eléctricas a tu cerebro a través del nervio óptico y luego el cerebro forma una cadena de neuronas para dar sentido a la señal entrante. La primera neurona de la cadena recoge la señal a través de sus dendritas y la envía al soma para procesar la señal. Una vez que el soma termina con su tarea, envía la señal al axón , que luego la envía a la dendrita de la siguiente neurona de la cadena. , la conexión entre los axones y las dendritas al transmitir información se denomina sinapsis. Todo el proceso continúa hasta que el cerebro encuentra una entrada sináptica sapiotemporal (que es la jerga científica; el cerebro continúa procesando hasta que encuentra una respuesta óptima a la señal que se le envía) y luego envía señales a los efectores necesarios, por ejemplo, sus piernas y luego, el cerebro envía una señal a tus piernas para que huyan del auto que se aproxima.
La relación entre el cerebro y la IA es en gran medida mutuamente beneficiosa, ya que el cerebro es la principal fuente de inspiración detrás del diseño de los sistemas de IA y los avances en la IA conducen a una mejor comprensión del cerebro y cómo funciona.
Hay un intercambio recíproco de conocimientos e ideas cuando se trata del cerebro y la IA, y hay varios ejemplos que atestiguan la naturaleza positivamente simbiótica de esta relación:
Redes neuronales: Podría decirse que el impacto más significativo realizado por el cerebro humano en el campo de la inteligencia artificial es la creación de redes neuronales. En esencia, las redes neuronales son modelos computacionales que imitan la función y la estructura de las neuronas biológicas, la arquitectura de las redes neuronales y sus algoritmos de aprendizaje se inspiran en gran medida en la forma en que las neuronas del cerebro interactúan y se adaptan.
Simulaciones cerebrales: los sistemas de IA se han utilizado para
Información sobre el cerebro: los investigadores han comenzado a utilizar algoritmos de aprendizaje automático para analizar y obtener información a partir de datos cerebrales y exploraciones de IRMf. Estos conocimientos sirven para identificar patrones y relaciones que de otro modo habrían permanecido ocultos. Los conocimientos obtenidos pueden ayudar en la comprensión de las funciones cognitivas internas, la memoria y la toma de decisiones, y también ayudan en el tratamiento de enfermedades nativas del cerebro como el Alzheimer.
Aquí discutiremos varios conceptos que ayudan a la IA a imitar la forma en que funciona el cerebro humano. Estos conceptos han ayudado a los investigadores de IA a crear sistemas más potentes e inteligentes que son capaces de realizar tareas complejas.
Como se discutió anteriormente, las redes neuronales son posiblemente el impacto más significativo del cerebro humano en el campo de la Inteligencia Artificial. En esencia, las redes neuronales son modelos computacionales que imitan la función y la estructura de las neuronas biológicas, las redes están formadas por varias capas de nodos interconectados, llamados neuronas artificiales, que ayudan en el procesamiento y transmisión de información, similar a lo que hacen las redes neuronales. dendritas, somas y axones en redes neuronales biológicas. Las redes neuronales están diseñadas para aprender de experiencias pasadas de la misma manera que lo hace el cerebro.
Las representaciones distribuidas son simplemente una forma de codificar conceptos o ideas en una red neuronal como un patrón a lo largo de varios nodos en una red para formar un patrón. Por ejemplo, el concepto de fumar podría representarse (codificarse) usando un determinado conjunto de nodos en una red neuronal y, por lo tanto, si esa red presenta una imagen de un hombre fumando, entonces usa esos nodos seleccionados para dar sentido a la imagen (es mucho más complejo que eso pero en aras de la simplicidad), esta técnica ayuda a los sistemas de IA a recordar conceptos complejos o relaciones entre conceptos de la misma manera que el cerebro reconoce y recuerda estímulos complejos.
Esta es una técnica utilizada en el entrenamiento de modelos de IA donde la salida de una red neuronal se devuelve como entrada para permitir que la red integre su salida como entrada de datos adicionales en el entrenamiento. Esto es similar a cómo el cerebro utiliza circuitos de retroalimentación para ajustar su modelo en función de experiencias previas.
El procesamiento paralelo implica dividir tareas computacionales complejas en bits más pequeños en un esfuerzo por procesar los bits más pequeños en otro procesador en un intento por mejorar la velocidad. Este enfoque permite que los sistemas de IA procesen más datos de entrada más rápido, de forma similar a cómo el cerebro puede realizar diferentes tareas al mismo tiempo (multitarea).
Esta es una técnica utilizada que permite que los modelos de IA se centren en partes específicas de los datos de entrada, se emplea comúnmente en sectores como el procesamiento de lenguaje natural que contiene datos complejos y engorrosos. Está inspirado en la capacidad del cerebro para prestar atención solo a partes específicas de un entorno que en gran medida distrae; como su capacidad para sintonizar e interactuar en una conversación a partir de una cacofonía de conversaciones.
Reinforcement Learning es una técnica utilizada para entrenar sistemas de IA, se inspiró en cómo los seres humanos aprenden habilidades a través de prueba y error. Se trata de que un agente de IA reciba recompensas o castigos en función de sus acciones, esto le permite aprender de sus errores y ser más eficiente en sus acciones futuras (esta técnica suele utilizarse en la creación de juegos).
El cerebro recibe constantemente nuevos flujos de datos en forma de sonidos, contenido visual, sensaciones sensoriales en la piel, etc., y tiene que darle sentido a todo e intentar formar una comprensión lógica y coherente de cómo todos estos eventos aparentemente dispares. afectar su estado físico.
Toma esta analogía como ejemplo, sientes el agua caer sobre tu piel, escuchas el sonido de las gotas de agua cayendo rápidamente sobre los techos, sientes que tu ropa se vuelve pesada y en ese instante sabes que está lloviendo, luego buscas en tu banco de memoria. para saber si llevas paraguas y si lo llevas estas bien, de lo contrario revisas para ver la distancia de tu ubicación actual a tu casa si esta cerca, estas bien, de lo contrario tratas de medir que tan intensa es la lluvia va a convertirse si es una llovizna ligera, puede intentar continuar el viaje de regreso a su hogar, pero si se está preparando para convertirse en una lluvia, entonces debe buscar refugio.
La capacidad de dar sentido a puntos de datos aparentemente dispares (agua, sonido, sensación, distancia) se implementa en la inteligencia artificial en forma de una técnica llamada aprendizaje no supervisado. Es una técnica de entrenamiento de IA en la que se enseña a los sistemas de IA a dar sentido a los datos sin estructurar sin un etiquetado explícito (nadie te dice que está lloviendo cuando está cayendo, ¿verdad?).
Hemos hablado sobre cómo surgió el enfoque para usar el cerebro como inspiración para los sistemas de IA, cómo se relaciona el cerebro con la IA y los principios básicos detrás de la IA inspirada en el cerebro. En esta sección, vamos a hablar sobre algunos de los desafíos técnicos y conceptuales inherentes a la construcción de sistemas de IA modelados a partir del cerebro humano.
Este es un desafío bastante desalentador. El enfoque de la IA inspirado en el cerebro se basa en modelar el cerebro y construir sistemas de IA según ese modelo, pero el cerebro humano es un sistema intrínsecamente complejo con 100 mil millones de neuronas y aproximadamente 600 billones de conexiones sinápticas (cada neurona tiene en promedio 10,000 conexiones sinápticas). conexiones con otras neuronas), y estas sinapsis interactúan constantemente de manera dinámica e impredecible. Construir sistemas de IA que tengan como objetivo imitar y, con suerte, superar esa complejidad es en sí mismo un desafío y requiere modelos estadísticos igualmente complejos.
GPT 4 de Open AI, que es, en este momento, la vanguardia de los modelos de IA basados en texto requiere 47 GigaBytes de datos, en comparación, su predecesor GPT3 fue entrenado en 17 Gigabytes de datos, que es aproximadamente 3 órdenes de magnitud más bajo. imagina cuánto se entrenará GPT 5.
Como se ha demostrado para obtener resultados aceptables, los sistemas de IA inspirados en el cerebro requieren grandes cantidades de datos y datos para tareas, especialmente tareas auditivas y visuales, y esto pone mucho énfasis en la creación de canales de recopilación de datos, por ejemplo, Tesla ha 780 millones de millas de datos de conducción y su tubería de recopilación de datos agrega otro millón cada 10 horas.
Construir sistemas de IA inspirados en el cerebro que emulen la eficiencia energética del cerebro es un gran desafío. el cerebro humano consume aproximadamente 20 watts de energía, en comparación, el Autopilot de Tesla , en chips especializados, consume alrededor de 2,500 watts por segundo y
El desarrollo de sistemas de IA inspirados en el cerebro en los que los usuarios puedan confiar es crucial para el crecimiento y la adopción de la IA, pero ahí radica el problema, el cerebro, en el que se pretende modelar los sistemas de IA, es esencialmente una caja negra. El funcionamiento interno del cerebro no es fácil de entender, esto se debe a la falta de información sobre cómo el cerebro procesa el pensamiento. No faltan investigaciones sobre cómo es la estructura biológica del cerebro humano pero sí cierta falta de información empírica sobre las cualidades funcionales del cerebro, es decir, cómo se forma el pensamiento, cómo se produce el deja vu, etc., y esto lleva a un problema en la construcción de sistemas de IA inspirados en el cerebro.
El acto de construir sistemas de IA inspirados en el cerebro requiere el conocimiento de expertos en diferentes campos, tales como; Neurociencia, Informática, Ingeniería, Filosofía y Psicología. Pero ahí radica un desafío tanto logístico como fundamental, en el sentido de que conseguir expertos de diferentes campos es una tarea muy económica, y también radica el problema del conflicto de conocimiento; es realmente difícil lograr que un ingeniero se preocupe por los efectos psicológicos de lo que está construyendo, por no hablar del problema de los egos en colisión.
En conclusión, si bien el enfoque inspirado en el cerebro es la ruta obvia para construir sistemas de IA (hemos discutido por qué), está lleno de desafíos, pero podemos mirar hacia el futuro con la esperanza de que se están haciendo esfuerzos para resolver estos problemas.
También publicado aquí.