人工知能の開発ペースは、自然な最高潮に達しています。GPT -4 、 Gemini 、 Claudeなどのツールとその開発者は皆、医療や教育から金融や娯楽まで、社会のあらゆる側面をすぐに変えることができると主張しています。この急速な進化は、AIの軌道についてこれまで以上に重要な疑問を提起しています。テクノロジーの利点はもちろんですが、(主に! )それが私たち全員にもたらす潜在的なリスクも疑問です。
このような状況では、専門家の意見に耳を傾け、理解し、それに耳を傾けることが重要になります。「 AIの未来に関する数千人のAI著者」と題された最近の調査は、AIの可能性に関する専門家の意見を測定する最も大規模な取り組みを表しています。AI ImpactsのKatja Graceと彼女のチームがボン大学とオックスフォード大学の研究者と共同で実施したこの調査では、2,778人の研究者を対象に、AIの進歩とその社会的影響に関する予測を尋ねました。連絡を取った全員が、トップクラスのAIの場で査読付き論文を執筆した経験がありました。
つまり、この調査は、AI 研究者の間でテクノロジーの将来とその社会的影響に関して抱いている期待と懸念の複雑さと広範さを浮き彫りにしています。
専門家は、AIが2028年には「支払い処理サイト全体をゼロからコーディングしたり、テイラー・スウィフトなどのヒットアーティストによる本物と区別がつかない新曲を書いたりする」といった重要なマイルストーンを達成すると予測している。
回答者の大多数は、最高の AI システムが今後 20 年以内に非常に注目すべき機能を実現する可能性が高いと考えています。これには、「目標を達成するための予想外の方法」の発見 (82.3%)、「ほとんどのトピックについて人間の専門家のように」話すこと (81.4%)、「人間にとって驚くべき方法で」頻繁に行動すること (69.1%) が含まれます。
さらに、コンセンサスでは、2047年までにAIがあらゆるタスクで人間を「上回る」可能性が50%あると示唆されており、これは1年前の予測と比較して13年も前倒しになった予測である。
人間の職業すべてが「完全に自動化可能」になる可能性は、2037年までに10%、2116年までに50%に達すると予測されています( 2022年の調査では2164年)。
調査では、AI の決定の解釈可能性に対する懐疑的な見方が示されており、2028 年までにユーザーが「 AI システムの選択の背後にある真の理由を理解できる」ようになる可能性が高いと考えている回答者はわずか 20% でした。AI は (悪名高い)ブラック ボックスであり、この懸念は AI の透明性における現実的で継続的な課題を反映しています。これは、AI の意思決定を理解することが信頼と説明責任にとって非常に重要である重要なアプリケーション (金融、医療など) に特に当てはまります。
この調査では、AIの潜在的な悪影響に関する「重大な」懸念も強調されている。当然のことながら、虚偽情報の拡散、世論の操作、AIの権威主義的利用は、大きな懸念を生み出している。今日、これらの危険を軽減するための積極的な対策を求める声はほとんどなく、それが問題である。
高度な機械知能の長期的な影響についてはさまざまな意見があり、回答者のかなりの部分が、人類絶滅を含む極めて良い結果と極めて悪い結果の両方が起こる可能性がゼロではないとしています。これは科学者にとって「次に何が起こるか全く分からない」という意味です。しかし、回答者の38%から51%は、高度なAIが人類絶滅と同じくらい悪い結果をもたらす可能性が少なくとも10%あるとしており、これは私たちが注目する必要があるもののようです。
最後に、AI の進歩が速いほうが人類の将来にとって良いのか遅いほうが良いのかについては意見が分かれています。しかし、回答者の大多数は、AI の安全性研究を現在よりも優先すべきだと主張しており、AI の存在リスクに対処し、安全な開発と展開を確保することの重要性についてのコンセンサスが高まっていることを反映しています。
今後の方向性は非常に明確です。世界中の政府が AI の安全性研究への資金提供を増やし、AI システムが現在および将来の人間の価値観や利益と一致するようにするための堅牢なメカニズムを開発する必要があります。
英国政府は最近、さまざまな人工知能関連プロジェクトに5,000万ポンド以上の資金提供を発表しました。これには、新しい責任あるAIエコシステムの構築のための3,000万ポンドが含まれます。その目的は、AI機能の責任ある信頼できるアプリケーションを保証するツールとプログラムを構築することです。
一方、バイデン・ハリス政権は、2024年初頭に、業界リーダー、学界、民間社会を含む200を超えるAI関係者を集めた米国AI安全研究所コンソーシアム(AISIC)の設立を発表しました。このコンソーシアムは、レッドチーム、能力評価、リスク管理、その他の重要な安全対策に関するガイドラインを策定することで、安全で信頼できるAIの開発と展開を支援することを目指しています。
これらは始まりではあるが、あまりにも国内的なものである。
政府は今、自国だけを見ているわけにはいきません。AI 技術の倫理的な開発と展開を導き、透明性と説明責任を確保するための国際規制も導入する必要があります。これには、AI 研究者、倫理学者、政策立案者の間で学際的かつ国際的な協力を促進することが含まれます。既存の人権枠組みを強化し、改善するために、次の取り組みが実施されると、私は世界がより安全だと感じるでしょう。
悲観論に陥るのはまだ早いかもしれない。この調査は貴重な洞察を提供しているが、参加者の自己選択による潜在的な偏りや、(当然のことですが)技術の進歩を正確に予測するという難しさなど、限界もある。さらなる研究は、視点の多様性を拡大し、特定の分野における AI 開発の影響を探ることを目指すべきである。
結局のところ、予測の正確さに関わらず、言葉以上のものが必要です。AI は前例のない機会と大きな課題の両方の源です。研究者、政策立案者、一般の人々の間で開かれた対話を通じて、AI の危険から身を守るためのルールを作成し、すべての人にとってより良い未来へと導かなければなりません。
世界はとても広く、私たちはとても小さいです。頑張ってください。