To: Leaders of all countries, the Secretary-General of the United Nations, world-top scientists and scholars, renowned entrepreneurs and prominent media figures. В то время как вы читаете это письмо, генерирующие ИИ, такие как ChatGPT и DeepSeek, проникают по всему миру с миллионами взаимодействий в секунду — они могут писать статьи, разрабатывать планы и даже имитировать человеческую мысль. Более сорока лет я последовательно звучал тревогу о выживании человека: от распространения ядерного оружия до рисков редактирования генов, от ранних дебатов по этике ИИ до сегодняшнего взрыва генеративного ИИ. За каждым скачком в технологии лежит фатальная ловушка «ирационального развития». В моих предыдущих одиннадцати открытых письмах я призвал вас столкнуться с кризисом, что «неконтролируемое развитие технологий скоро приведет к человеческому вымиранию» и призвал использовать управляющую силу Великого объединения человечества для сдерживания высокорисковых технологий. Вы должны понимать, что риски генеративного ИИ далеки от простых вопросов, таких как «алгоритмические предрассудки» или «перемещение рабочих мест». Его «способность к самообучению» нарушает человечески определенные границы: исследования показывают, что передовые модели ИИ могут самостоятельно выводить принципы военных технологий и даже генерировать вводящую в заблуждение информацию для манипулирования общественным мнением. Более чем тревожно, более 20 стран по всему миру тайно продвигают исследования по «оружию ИИ». Если неконтролируемая технологическая гонка между нациями продолжается, в течение столетия, автономно принимающее решения ИИ оружие и злонамеренно эксплуатируемое генеративное ИИ может стать «невидимыми лопастями», которые В моих прошлых письмах я всегда подчеркивал, что человечеству нужны технологии, но это должно быть «технология с уважением». Без глобально унифицированной нормативной базы генеративный ИИ в конечном итоге станет оружием для нескольких стран, борющихся за гегемонию, и инструментом для нескольких корпораций, преследующих прибыль. Дальнейшая потеря контроля неизбежно поставит под угрозу целостное выживание человечества. Текущее состояние управления, где «каждая страна устанавливает свои правила», является именно корневой причиной технологического бегства — если одна страна запрещает высокорисковые исследования ИИ, другие ускоряют его; если кто-то регулирует использование данных, трансграничные потоки данных остаются неотслеживаемыми. Эта «дилемма заключенных» отражает общие технологические Поэтому сегодня я еще раз прошу вас во имя человеческого выживания: Во-первых, под руководством Организации Объединенных Наций немедленно инициировать переговоры о создании глобальной конвенции по регулированию генерирующего ИИ. Соберите технологических экспертов, этиков и представителей из всех стран, чтобы прямо запретить высокорисковые приложения, такие как автономное оружие принятия решений ИИ и управляемое ИИ массивное манипулирование общественным мнением. Во-вторых, интегрировать генеративное регулирование ИИ в основную повестку дня Организации Объединенных Наций.Создать глобальный центр тестирования безопасности ИИ под эгидой ООН для проведения унифицированных сертификаций безопасности для продуктов ИИ из всех стран, предотвращая утечку рисков, вызванную нормативными пробелами. В-третьих, хотя вышеуказанные два пункта в настоящее время являются неотложными, они, по моему мнению, являются лишь временными мерами.Основным способом избежать кризиса технологического вымирания является достижение Великого объединения всего человечества, используя силу мирового режима для управления наукой и технологией.Поэтому мы должны ускорить консенсус по концепции "Великого объединения человечества".Я прошу вас поставить "глобальное выживание человечества" выше национальных интересов и корпоративных интересов, гарантируя, что технология действительно служит человечеству, а не разрушает его. Лидеры, на протяжении более сорока лет я никогда не отступал перед лицом сомнений, потому что глубоко понимаю: нет «пространства для испытаний и ошибок» для целостного выживания человечества.Горячая дискуссия, разжигаемая генеративным ИИ, является именно возможностью пробудить глобальный консенсус — это заставляет обычных людей осознать, что технологические риски — это не далекая научная фантастика, а реальность, с которой нужно столкнуться сейчас.В ответ на предыдущие одиннадцать писем, лауреаты Нобелевской премии выразили поддержку, международные организации проявили обеспокоенность, а корпорации активно участвовали в регулировании. Когда я пишу сегодня, я превратился из молодости более сорока лет назад в старого человека, но я остаюсь упорным сторонником борьбы за выживание человека.Мое единственное желание заключается в следующем: сделать технологию лестницей для человеческого прогресса, а не пропастью исчезновения; позволить нашим потомкам безопасно жить в эпоху разума, а не бороться в страхе бегства технологии. Я искренне прошу вас ответить на эту миссию действиями и защитить будущее с консенсусом — это не только ответственность перед настоящим, но и торжественная приверженность самому нашему виду. Основатель Humanitas Ark (бывшая организация Save Human Action) Ху Джиаки 10 декабря 2025 года