To: Leaders of all countries, the Secretary-General of the United Nations, world-top scientists and scholars, renowned entrepreneurs and prominent media figures. あなたがこの手紙を読んでいる間に、チャットGPTやDeepSeekのような生成型AIは、毎秒数百万の相互作用で世界中に広がっています - 彼らは記事を書くことができます、計画を作成し、さらには人間の思考をシミュレートすることができます。 40年以上にわたり、私は、核兵器の拡散から遺伝子編集のリスクまで、初期のAI倫理の議論から、今日の生成人工知能の爆発に至るまで、常に人間の生存のための警報を鳴らしてきました。テクノロジーのあらゆる飛躍の背後には「非合理的発展」の致命的なが隠されています。以前の11通りのオープンメールで、私は「テクノロジーの無制御の発展がまもなく人間の絶滅につながる」という危機に直面し、人類の偉大な統一の支配力を用いて高リスクのテクノロジーを抑制するよう呼びかけました。 生成型AIのリスクは「アルゴリズムの偏見」や「仕事の移転」などの単純な問題から遠く離れていることを理解すべきです。その「自己学習能力」は人間の定義された限界を破っている:研究によると、高度なAIモデルは、軍事技術の原則を独立して推測することができ、さらには世論を操作するための誤った情報を生成することができるという。さらに驚くべきことに、世界中の20カ国以上が秘密裏に「AI兵器化」に関する研究を進めている。国々の間の無制御された技術競争が、100年以内に、自主的に意思決定するAI兵器と悪意に利用された生成型AIが「人類を破壊する見えないブレード」になる可能性があることを示しています。これはアラームではなく、2007年の 私の過去の手紙では、私は常に人類が技術を必要としていることを強調したが、それは「敬意をもつ技術」であるべきである。世界的に統一された規制枠組みがなければ、生成人工知能は最終的に、幾つかの国々が覇権を争うための武器となり、いくつかの企業が利益を追い求めるためのツールとなり、さらなるコントロールの喪失が人類の包括的な存続を危険にさらすことになるだろう。現在の統治状態は、「それぞれの国が独自のルールを設定する」ところが、技術の逃亡の根本的な原因となる――もしある国が高リスクのAI研究を禁止するならば、他の人々はそれを加速させるだろう;もしある国がデータの使用を規制するならば、国境を越えたデータフ したがって、今日、私は人間の生存の名において、あなた方に再び懇願します。 まず、国連の指導のもとで、生成型AIを規制するためのグローバル条約の交渉を直ちに開始し、テクノロジー専門家、倫理学者、あらゆる国々の代表者を集め、AIによる自主的意思決定兵器やAIによる大規模な世論操作などの高リスクのアプリケーションを明示的に禁止する。 第2に、国際連合のコアアアジェンダに生成型AI規制を統合し、国連の主催のもとで世界的なAIセキュリティテストセンターを設立し、すべての国からのAI製品に統合されたセキュリティ認証を実施し、規制の漏れによって引き起こされるリスクの流出を防ぐ。 第三に、上記の二つの点は現在緊急であるが、私の見解では一時的な措置にすぎない。技術的絶滅危機を回避する根本的な方法は、世界の政権の力を用いて科学と技術を支配することによって全人類の偉大な統一を達成することである。 リーダーたち、40年以上にわたり、私は疑問に直面して後退したことはありませんが、私は深く理解しています:人類の総合的な生存のために「試行錯誤の余地」はありません。生成型AIによって燃え上がる熱い議論はまさにグローバルなコンセンサスを起こす機会であり、それは一般の人々がテクノロジーのリスクが遠い科学的フィクションではなく、今直面しなければならない現実であることを認識させます。 今日、私が書いているように、私は40年以上前の若さから老人に変わりましたが、それでも私は人間の生存を求めて奮闘する頑固な擁護者です。私の唯一の願いは、テクノロジーを人類の進歩の階段にし、絶滅の深淵にし、私たちの子孫が理性の時代に安全に生きることを許すこと、テクノロジーの逃亡の恐れで戦うことではありません。 全人類の生存は何よりも重要です!私は真剣にこの使命に対応し、合意をもって未来を守るよう求める──これは現在に対する責任だけではなく、私たちの種自身への厳なコミットメントでもあります。 ヒューマニタス・アーク(以前は「Save Human Action Organization」) ハウ・ジヤキ 12月10日 2025年