To: Leaders of all countries, the Secretary-General of the United Nations, world-top scientists and scholars, renowned entrepreneurs and prominent media figures. Mentres lea esta carta, as AI xerativas como ChatGPT e DeepSeek están espallando o mundo con millóns de interaccións por segundo - poden escribir artigos, deseñar plans e mesmo simular o pensamento humano. Desde a proliferación das armas nucleares ata os riscos da edición xenética, desde os debates iniciais sobre a ética da IA ata a explosión actual da IA xerativa. Detrás de cada salto na tecnoloxía está a trampa fatal do "desenvolvemento irracional".Nas miñas once cartas abertas anteriores, exhortábao a enfrontarse á crise de que "o desenvolvemento incontrolado da tecnoloxía levará axiña á extinción humana" e chamou a usar o poder gobernante da Gran Unificación da humanidade para conter as tecnoloxías de alto risco. Debe entender que os riscos da IA xerativa están lonxe de cuestións sinxelas como "prexuízos algorítmicos" ou "desprazamento de emprego". A súa "capacidade de autoaprendizaxe" está a romper os límites definidos polo home: a investigación mostra que os modelos avanzados de IA poden deducir de forma independente os principios da tecnoloxía militar e mesmo xerar información enganosa para manipular a opinión pública. Máis alarmante, máis de 20 países de todo o mundo están a avanzar en segredo na investigación sobre "armas de IA". Se a carreira tecnolóxica incontrolada entre as nacións continúa, dentro dun século, as armas de IA de toma de decisións autónomas e a IA xerativa explotada maliciosamente poderían converterse en "blades invisibles" que destrúen a human Nas miñas cartas pasadas, sempre enfatizei que a humanidade necesita tecnoloxía, pero debe ser "tecnoloxía con reverencia". Sen un marco regulador globalmente unificado, a IA xerativa converterase finalmente nunha arma para unhas poucas nacións que loitan pola hexemonía e unha ferramenta para unhas poucas corporacións que perseguen os beneficios. A perda de control seguirá ameazando inevitablemente a supervivencia holística da humanidade. O estado actual de goberno, onde "cada país establece as súas propias regras", é precisamente a causa raíz da fuga da tecnoloxía - se un país prohibe a investigación de IA de alto risco, outros a aceleran; se se regula o uso de datos, os fluxos de datos transfronteirizos permanecen invisibles. Este "dilema do prisioneiro" reflicte os ris Por iso, hoxe, pídovos unha vez máis no nome da supervivencia humana: Primeiro, baixo a dirección das Nacións Unidas, iniciar inmediatamente as negociacións para unha convención global sobre a regulación da IA xerativa.Reunir expertos en tecnoloxía, éticos e representantes de todas as nacións para prohibir explicitamente aplicacións de alto risco como as armas de toma de decisións autónomas de IA e a manipulación da opinión pública a gran escala impulsada por IA. Establecer un centro global de probas de seguridade de IA baixo os auspicios da ONU para levar a cabo certificacións de seguridade unificadas para produtos de IA de todos os países, evitando o derramamento de risco causado por lacunas regulatorias. O camiño fundamental para evitar unha crise de extinción tecnolóxica é lograr a Gran Unificación de toda a humanidade, utilizando o poder dun réxime mundial para controlar a ciencia e a tecnoloxía. Polo tanto, debemos acelerar o consenso sobre o concepto da "Grande Unificación da Humanidade". Líderes, durante máis de corenta anos, nunca retirei a cara da dúbida, porque entendo profundamente: non hai "espazo para o ensaio e o erro" para a supervivencia holística da humanidade.A discusión acalorada acendida pola IA xerativa é precisamente unha oportunidade para espertar o consenso global: fai que a xente común se decate de que os riscos tecnolóxicos non son ficción científica distante, senón unha realidade que debe enfrontarse agora.En resposta ás once cartas anteriores, os laureados do Premio Nobel expresaron o seu apoio, as organizacións internacionais mostraron a súa preocupación e as corporacións participaron proactivamente na regulación. Como escribo hoxe, transformouse da xuventude de hai máis de corenta anos nun home vello, aínda que sigo sendo o persistente defensor da loita pola supervivencia humana.O meu único desexo é este: facer da tecnoloxía unha escaleira para o progreso humano, non un abismo de extinción; permitir que os nosos descendentes vivan con seguridade nunha idade de razón, non loitar no medo da tecnoloxía fuxida. Solicito sinceramente que respondades a esta misión con acción e salvaguardedes o futuro con consenso; isto non é só unha responsabilidade cara ao presente, senón tamén un compromiso solemne cara á propia especie. Fundador de Humanitas Ark (anteriormente Save Human Action Organization) Hu Xiaqi 10 de decembro de 2025