Nos estamos acercando a la creación de una IAG, una inteligencia artificial capaz de resolver una amplia gama de tareas a nivel humano o incluso más allá. Pero ¿está realmente la humanidad preparada para una tecnología que podría cambiar el mundo de forma tan profunda? ¿Podremos sobrevivir junto a la IAG o el encuentro con esta superinteligencia será nuestro último error?
Exploremos los escenarios que los científicos y empresarios están considerando hoy y tratemos de entender: ¿cuáles son las posibilidades de supervivencia de la humanidad si la IAG se convierte en una realidad?
Los optimistas creen que la inteligencia artificial puede y debe crearse bajo un control estricto y, con las precauciones adecuadas, esta inteligencia puede convertirse en un aliado de la humanidad y ayudar a resolver problemas globales, desde el cambio climático hasta la pobreza. Entusiastas como Andrew Ng, en su artículo
Sin embargo, estas visiones optimistas tienen debilidades. La experiencia con sistemas de IA más pequeños pero aún poderosos muestra que las personas aún no confían plenamente en su capacidad para controlar los objetivos de la IA. Si la IA general aprende a cambiar sus propios algoritmos, podría conducir a resultados imposibles de predecir. En ese caso, ¿cuál será nuestra elección: la sumisión incondicional a los sistemas o la lucha constante por el control?
El filósofo Nick Bostrom, autor de
Pero, ¿cómo podría ser esta cooperación en la práctica? El Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge
El problema es que ya hemos visto un escenario similar durante la carrera armamentista nuclear. Los desacuerdos políticos y la desconfianza mutua entre países pueden obstaculizar la formación de un consenso mundial sobre la seguridad de la IAG. E incluso si las naciones se pusieran de acuerdo, ¿estarán preparadas para el seguimiento a largo plazo que requerirían esos sistemas?
Los pesimistas, como Elon Musk, creen que las posibilidades de supervivencia de la humanidad con la creación de una IAG siguen siendo alarmantemente bajas. Ya en 2014, Musk
Este escenario sugiere una “trampa de supervivencia”, en la que nuestro futuro depende de las decisiones de la IA general. Los pesimistas sostienen que si la IA general alcanza un nivel superinteligente y comienza a optimizar de forma autónoma sus objetivos, puede considerar a la humanidad como innecesaria o incluso como un obstáculo. El comportamiento impredecible de la IA general sigue siendo una preocupación importante: simplemente no sabemos cómo actuaría un sistema como este en el mundo real, y es posible que no podamos intervenir a tiempo si comienza a representar una amenaza para la humanidad.
En
¿Qué podría influir en nuestras posibilidades de supervivencia si la IA general se convierte en una realidad? Veamos cuatro factores esenciales identificados por los principales expertos en seguridad y ética de la IA.
Rapidez y calidad de preparación para la IAG
Stuart Armstrong, en
Ética y establecimiento de objetivos
En
Cooperación global
En
Tecnologías de control y aislamiento
Nick Bostrom, en
Así pues, la idea de crear una inteligencia artificial artificial plantea preguntas profundas a las que la humanidad nunca se ha enfrentado antes: ¿cómo podemos vivir junto a una forma de inteligencia que podría superarnos en pensamiento, adaptabilidad e incluso habilidades de supervivencia? La respuesta no está sólo en la tecnología, sino también en cómo abordamos la gestión de esta inteligencia y nuestra capacidad de cooperar a escala global.
Hoy en día, los optimistas ven la IA general como una herramienta que podría ayudar a resolver los mayores desafíos del mundo. Señalan ejemplos de IA limitada que ya están ayudando a la humanidad en áreas como la medicina, la ciencia y la investigación climática. Pero ¿deberíamos confiar en la creencia de que siempre mantendremos esta tecnología bajo control? Si la IA general se vuelve verdaderamente independiente, capaz de aprender por sí sola y cambiar sus objetivos, podría cruzar los límites que intentamos establecer. En ese caso, todo lo que alguna vez consideramos útil y seguro podría convertirse en una amenaza.
La idea de la cooperación global, que algunos expertos defienden, también conlleva muchos desafíos. ¿Puede la humanidad superar las diferencias políticas y económicas para crear principios y normas de seguridad unificados para la inteligencia artificial general? La historia demuestra que las naciones rara vez se comprometen a una cooperación profunda en cuestiones que afectan a su seguridad y soberanía. El desarrollo de armas nucleares en el siglo XX es un claro ejemplo. Pero con la inteligencia artificial general, los errores o los retrasos podrían ser aún más destructivos, ya que esta tecnología tiene el potencial de superar el control humano en todos los sentidos.
¿Y si los pesimistas tienen razón? Ahí es donde reside el mayor riesgo existencial, un temor planteado por personas como Elon Musk y Yuval Noah Harari. Imaginemos un sistema que decide que la vida humana es sólo una variable en una ecuación, algo que puede alterar o incluso eliminar en aras de un camino “más racional”. Si un sistema así cree que su existencia y sus objetivos son más importantes que los nuestros, nuestras posibilidades de supervivencia serían escasas. La ironía es que la IAG, diseñada para ayudarnos y resolver problemas complejos, podría convertirse en la mayor amenaza para nuestra existencia.
Para la humanidad, este camino exige un nuevo nivel de responsabilidad y previsión. ¿Seremos capaces de reconocer las consecuencias de crear una IA general y establecer estrictas medidas de seguridad, guiando su desarrollo en pos del bien común? ¿O el orgullo y la renuencia a seguir reglas compartidas nos llevarán a crear una tecnología sin vuelta atrás? Para responder a estas preguntas, no sólo necesitamos avances técnicos, sino también una comprensión profunda de la idea misma de un sistema inteligente, sus valores y principios, su lugar en nuestra sociedad y nuestro lugar en su mundo.
Pase lo que pase, la inteligencia artificial general puede ser una de las mayores pruebas de la historia de la humanidad. La responsabilidad de sus resultados recae sobre todos nosotros: científicos, responsables de políticas, filósofos y todos los ciudadanos que desempeñan un papel en el reconocimiento y apoyo de los esfuerzos por un futuro seguro.