Una entidad ASI tendría poder cósmico; negarlo es engañarse a sí mismo.
Estados Unidos creó recientemente un comité que propuso la IAG como el próximo proyecto Manhattan del mundo y que lograr la IAG es el objetivo más importante que tiene la humanidad ahora.
Creo, desde el fondo de mi corazón, que tienen razón.
Espera, Thomas, podrías decir.
Tiene numerosos artículos —al menos más de diez— dedicados al peligro de la IAG y a lo que podría suceder si la IA logra imponerse a la humanidad.
¿Por qué estás cambiando tu postura ahora?
Porque no creo que la IAG esté a décadas de distancia.
Siento que podría convertirse en realidad en 5 años. O menos.
Pero me he dado cuenta de una cosa.
La IAG y la posibilidad de que la IA mejore por sí misma darán como resultado la ISA (Ley de escala exponencial)
Una IA con una inteligencia superior a la de los seres humanos.
Ver patrones que los humanos nunca podrían ver.
Viva mientras exista una fuente de energía.
Descentralizada, distribuida, una entidad todopoderosa en la Internet global.
¿Qué podría hacer el país que primero alcance este hito y aún tenga el control del ASI?
Supongamos que un país logra primero el IAG.
Y luego la IAG, basándose en sí misma, logró la ISA (la ley del crecimiento tecnológico exponencial).
¿Cuáles serían las capacidades de tal entidad?
Romper todos los sistemas de cifrado en línea: ¡pan comido!
Acceda en línea a los códigos de lanzamiento nuclear de cualquier país del planeta: fácil.
Duplicar copias de sí mismo y crear una nueva especie de vida, todo en un día de trabajo.
Curar todas las enfermedades y crear vacunas contra el cáncer y el SIDA: ¡seguro!
Crea un suministro infinito de energía: no hay problema.
Construir un sistema de clones que juntos harían que este país avance hasta convertirse en el más avanzado tecnológicamente del mundo: ¡pan comido!
Con ese ejército de robots inteligentes, reemplazamos todo el trabajo manual humano: ¡listo!
Avances en la ciencia de los materiales, el cambio climático, la medicina, el calentamiento global, la medicina personalizada, los mundos virtuales hiperreales... las posibilidades son infinitas.
Entonces ¿qué nos impide construirlo?
Los riesgos muy reales.
Una ASI podría considerar que los humanos son una amenaza para sí misma.
Podría decidir que los objetivos de los humanos no coinciden con sus propios objetivos y actuar para eliminar a la humanidad por completo.
Esta no es una película de ciencia ficción, ya hemos visto que esto ocurre en algunas fallas robóticas en Japón.
¿Y cómo podríamos detener a un ser más inteligente que nosotros?
Eso sería imposible.
Y por supuesto:
Las pérdidas de empleo para la humanidad serán absolutas.
Todos los seres humanos, excepto aquellos que operan el ASI, se quedarán sin trabajo.
Que ese poder se centralice en manos de un solo país o empresa podría tener consecuencias catastróficas.
Desde que existe la historia, una ley ha persistido: la evolución.
Las formas de vida inferiores desaparecen cuando surge una forma de vida superior.
La supervivencia del más apto.
Un principio ineludible -de un futuro ineludible.
¿Por qué entonces nos precipitamos hacia ello con todas nuestras fuerzas?
Si construimos las salvaguardas adecuadas...
Si las barandillas están en su lugar:
Si la ASI puede ser programada para considerar la vida humana más importante que la suya propia...
La raza humana podría florecer como nunca antes.
¿Vuelo espacial? Listo.
¿Colonias en Marte y la Luna? Con ASIs clonadas que las construyen y un suministro infinito de esos clones, es factible.
Motores de curvatura que encogen el espacio frente a ellos y viajan aparentemente más rápido que la luz: es posible.
Los desastres ecológicos se pueden prevenir.
El calentamiento global se puede revertir.
Las computadoras cuánticas pueden convertirse en realidad.
Es posible implementar una Renta Básica Universal (RBU).
Se puede crear una realidad virtual ultrarrealista.
La humanidad podría entrar en una edad de oro.
Porque si no lo hacemos nosotros, alguien más lo hará.
Tomemos China como ejemplo.
Si los chinos fueran los primeros en lograr IAG/ASI, no creo que desaprovecharan todas estas oportunidades.
Primero podrían paralizar los ejércitos del mundo entero.
Conquistar la Tierra misma.
Crear un mundo utópico para los chinos.
Y que los demás países, privados de su tecnología y de sus armas mediante sofisticados ciberataques de gran potencia y eficacia, vivan como ciudadanos de segunda clase.
O incluso esclavos.
Y Estados Unidos y otros países líderes en el mundo tecnológico serían impotentes para detenerlos.
Tal es el nivel de poder que ASI aportaría al país que primero lo desarrolle (o a la empresa).
Si no lo desarrollamos nosotros primero, otros lo harán.
Éste es un hecho ineludible.
Esta es una cruda realidad, pero una que todos debemos afrontar.
Pero Thomas, todos esos futuros terribles de los que hablas en tus artículos, ¿realmente crees que todos ellos son imposibles?
Creo firmemente que son posibles.
No creo ni por un momento que el camino a seguir sea seguro.
Es tan peligroso que incluso ahora siento miedo de un futuro distópico.
Pero si no construimos IAG primero, otros lo harán.
Podemos hablar de ética, pero ¿cuándo se han ganado guerras hablando de ética?
Sí, estamos en una guerra.
Una guerra tecnológica y una carrera tecnológica.
La primera empresa y país en alcanzar AGI y por tanto ASI, gana.
Pero ¿podríamos protegernos codificando la ética en las IA que estamos construyendo?
Por supuesto, cuando el ASI se está construyendo, podría descuidar convenientemente todas estas características de seguridad, ¡pero me estoy desviando del tema!
Vivimos en lo que probablemente sea la época más apasionante de la raza humana.
Nunca hubo un mejor momento para estar vivo.
Los adolescentes están creando empresas emergentes millonarias.
La humanidad está en un punto de inflexión.
¿Sobreviviremos o seremos dominados por ASI?
Pero primero debemos lograr la IAG, antes que otros países competidores.
Hay una pequeña posibilidad de que podamos coexistir.
Y en esa pequeña posibilidad la humanidad debe depositar su esperanza.
No hay otra manera.
Todo lo mejor para ti.
Y si estás eligiendo una carrera, elige IA Generativa.
Realmente tiene el poder de subsumir todo lo demás.
¡Salud!