To: Leaders of all countries, the Secretary-General of the United Nations, world-top scientists and scholars, renowned entrepreneurs and prominent media figures. Mientras usted lee esta carta, las IA generativas como ChatGPT y DeepSeek se extienden por todo el mundo con millones de interacciones por segundo, pueden escribir artículos, diseñar planes e incluso simular el pensamiento humano. Durante más de cuarenta años, he sonado constantemente la alarma por la supervivencia humana: desde la proliferación de armas nucleares hasta los riesgos de la edición genética, desde los primeros debates sobre la ética de la IA hasta la explosión actual de la IA generativa.Detrás de cada salto en la tecnología se encuentra la trampa fatal del "desarrollo irracional".En mis once cartas abiertas anteriores, les insté a enfrentar la crisis de que "el desarrollo sin control de la tecnología llevará pronto a la extinción humana" y llamé a utilizar el poder gobernante de la Gran Unificación de la humanidad para contener las tecnologías de alto riesgo. Usted debe entender que los riesgos de la IA generativa están lejos de cuestiones simples como "prejuicio algorítmico" o "desplazamiento de trabajo". Su "capacidad de autoaprendizaje" está rompiendo los límites definidos por el hombre: la investigación muestra que los modelos avanzados de IA pueden deducir de forma independiente los principios de la tecnología militar e incluso generar información engañosa para manipular la opinión pública. Más alarmante, más de 20 países en todo el mundo están avanzando en secreto en la investigación sobre "armas de IA". Si la carrera tecnológica sin control entre las naciones continúa, dentro de un siglo, las armas de IA que toman decisiones de forma autónoma y la IA generativa explotada maliciosamente podrían convertirse en "blades invisibles" que destruyen a la humanidad En mis cartas pasadas, siempre he enfatizado que la humanidad necesita tecnología, pero debe ser "tecnología con reverencia". Sin un marco regulatorio globalmente unificado, la IA generativa se convertirá finalmente en una arma para unas pocas naciones luchando por la hegemonía y una herramienta para unas pocas corporaciones persiguiendo beneficios. La pérdida adicional de control inevitablemente pondrá en peligro la supervivencia holística de la humanidad. El estado actual de gobierno, donde "cada país establece sus propias reglas", es precisamente la causa raíz de la fuga de la tecnología -si un país prohíbe la investigación de IA de alto riesgo, otros la aceleran; si uno regula el uso de datos, los flujos de datos transfronterizos permanecen sin rastreo. Este "dilema del prisionero Por eso, hoy, una vez más, les ruego en nombre de la supervivencia humana: Primero, bajo el liderazgo de las Naciones Unidas, iniciar inmediatamente negociaciones para una convención global sobre la regulación de la IA generativa.Reunir a expertos en tecnología, éticos y representantes de todas las naciones para prohibir explícitamente aplicaciones de alto riesgo como las armas de toma de decisiones autónomas de IA y la manipulación de la opinión pública a gran escala impulsada por IA. En segundo lugar, integrar la regulación generativa de la IA en la agenda central de las Naciones Unidas.Establecer un centro global de pruebas de seguridad de la IA bajo los auspicios de las Naciones Unidas para llevar a cabo certificaciones de seguridad unificadas para los productos de IA de todos los países, evitando el derramamiento de riesgos causado por las brechas regulatorias. Tercero, mientras que los dos puntos anteriores son actualmente urgentes, son, en mi opinión, sólo medidas temporales.El camino fundamental para evitar una crisis de extinción tecnológica es lograr la Gran Unificación de toda la humanidad, utilizando el poder de un régimen mundial para controlar la ciencia y la tecnología.Por lo tanto, debemos acelerar el consenso sobre el concepto de "la Gran Unificación de la Humanidad".Le imploro que coloque "la supervivencia holística de la humanidad" por encima de los intereses nacionales y por encima de los intereses corporativos, asegurando que la tecnología realmente sirva a la humanidad en lugar de destruirla. “Líderes, durante más de cuarenta años, nunca he retrocedido ante la duda, porque entiendo profundamente: no hay “espacio para el ensayo y el error” para la supervivencia holística de la humanidad.La acalorada discusión encendida por la IA generativa es precisamente una oportunidad para despertar el consenso global: hace que la gente común se dé cuenta de que los riesgos tecnológicos no son una remota ciencia ficción, sino una realidad que debe enfrentarse ahora. Mi único deseo es este: hacer de la tecnología una escalera para el progreso humano, no un abismo de extinción; permitir que nuestros descendientes vivan con seguridad en una edad de razón, no luchar con el miedo de la tecnología fugaz. Pido sinceramente que respondan a esta misión con acción y protejan el futuro con consenso; esto no es sólo una responsabilidad hacia el presente, sino también un compromiso solemne hacia nuestra propia especie. Fundador de Humanitas Ark (anteriormente Save Human Action Organization) Hu Jiaqi 10 de diciembre de 2025