paint-brush
私たちには AI を導入する道徳的義務があるのでしょうか?@corhymel
1,051 測定値
1,051 測定値

私たちには AI を導入する道徳的義務があるのでしょうか?

Cory Hymel8m2024/04/20
Read on Terminal Reader

長すぎる; 読むには

質問が投げかけられた AI パネルの左から 2 番目のフランク・チェン氏。クレジット: Gigster
featured image - 私たちには AI を導入する道徳的義務があるのでしょうか?
Cory Hymel HackerNoon profile picture
0-item

5 年前、フランク・チェンは、それ以来毎日私の頭から離れない疑問を投げかけました。その疑問とは、「自動運転車が 51% 安全なら、私たちはそれを採用する道徳的義務を負うべきではないのか?」というものでした。私はこの 5 年間に何度もこの疑問を投げかけてきましたが、たいていの場合、反射的な反応が興味深い議論を生みます。この疑問が素晴らしいのは、その一線を画しているからです。99% 安全でもなければ、70% 安全でもなく、51% 安全であるだけです


文脈に沿って説明すると、米国道路安全局は、2022年の交通事故による死亡者数は推定42,795人だったと報告しています。42,795人の50%は21,398人、51%は21,825人です。


つまり、自動運転車の安全性が 51% 向上すれば、自動運転車を使用することで毎年 427 人の命が救われることになります。これは、乗客を乗せたボーイング 777 型機 1.5 機分に相当します。


427 人の命を救うことは、養子縁組の道徳的根拠となるでしょうか?


この疑問を5年間共有してきたが、答えは決して単純ではない。常に「もし」に満ちている。しかし、たとえ答えが明確でなかったとしても、私はこの疑問が非常に重要だと思う。それは、私たちの生活や仕事の多くの側面でAIを採用することの道徳的義務について、より広範で、そして同様に重要な議論を始めるからである。結局のところ、命を救う可能性のある技術を避けることは、技術を性急に採用することと同じくらい倫理的に問題があるかもしれないからだ。


AI導入の道徳的義務


私は、自動運転車をめぐる議論は、AI に関する幅広い議論の縮図にふさわしいものだと常に思ってきました。人間が運転する車両よりも統計的に安全な技術を持っているのであれば、道徳的な選択は明らかではないでしょうか。


このことを考慮: 研究人間の運転手は、自動運転車(AI搭載車)よりも、負傷リスクのある衝突事故の発生率が高いことがわかっています。具体的には、人間の運転手は100万マイルあたり負傷者0.24人(IPMM)、100万マイルあたり死亡者0.01人(FPMM)を引き起こしましたが、自動運転車はIPMMが0.06人、FPMMが0人でした。


そして、これらの数字は単なる統計ではないことを忘れないでください。AI テクノロジーを導入することで救えるかもしれない実際の命を表しています。


しかし、なぜ自動運転車だけに留まるべきなのでしょうか? AI が安全性、効率性、正確性を高める可能性は、医療、公衆衛生、食品安全、農業、サイバーセキュリティ、犯罪防止、軍事科学などの分野に及びます。AI が人間の医師よりも正確に病気を診断し、食糧供給を壊滅させる前に農作物の不作を予測し、データを侵害する前にサイバー攻撃を阻止できるのであれば、私たちにもそれらの技術を活用する道徳的義務があるのではないでしょうか?


もちろん、これらは劇的な例ですが、議論は生死にかかわるシナリオだけにとどまりません。AI が私たちの日々の生活の質を向上させる能力も同様に説得力があります。日常的な作業を簡素化したり、情報やサービスをよりアクセスしやすく公平なものにしたりすることで、AI は単調な作業を終わらせ、私たちの日々の生活の質を向上させることができます。AI を採用する道徳的義務は、危害や死を防ぐことだけではありません。私たちには、可能であれば人類の幸福に貢献する義務があるかどうかという問題でもあります。

選択と安全のジレンマ


では、人間が操作する車両(または人間が主導するプロセス)は AI による車両よりも安全性や効率性が低いことを知りながら、私たちはそれを選択するのでしょうか。単に、より人間的であるという理由だけででしょうか。


人間が操作するシステムと AI で強化された代替システムの選択に直面した場合、その決定は、何が「人間的」かという曖昧な考えに従うのではなく、明らかに安全性と効率性に基づいて行われるべきだというのが私の考えです。


AI を採用するということは、人間の価値や入力を無視することではありません。むしろ、人間のものが本質的に優れているわけではないことを認めることであり、実際のところ、特定の状況では大幅に劣っている場合が多いのです。


さあ、どうか怒りをぶつけないでください。私はロボット・オーバーロードのチームには加わりません。AI がすでに仕事に引き起こしている混乱や、間違いなく私たちの方向に向かっている社会の変化について、多くの人が不安を感じていることは理解できます。ただ、AI の効率性と生活の質の向上が、長期的には混乱の影響を上回るのではないかと思うだけです。


AI の導入をためらう理由の一部は、認知バイアスや恐怖感によるものです。適応力に優れていることで知られる種族であるにもかかわらず、私たち人間は変化を好みません。


認知バイアスは、私たちが AI を受け入れることに躊躇する大きな要因です。認知バイアスとは、ホモサピエンスとして誕生した初期の頃からの名残である心理的パターンです。それは私たちの心が陥る習慣であり、捕食者から逃げるときには役立つものの、現代の私たちの認識や判断を間違いなく歪めてしまう認知的近道です。


この場合、これらの偏見を認識して対処することは、AI 導入に対するより合理的で倫理的なアプローチに移行する上で非常に重要です。ここでは、AI テクノロジーに対する私たちの疑念、信頼、受容に影響を与える可能性があると思われる偏見をいくつか挙げます。

  • 擬人化バイアス:人々は AI やロボットに人間の特徴を当てはめる傾向があり、それが信頼や期待に影響を与えます。これにより、AI システムの能力について非現実的な想定をしたり、悪意があると決めつけたりしてしまう可能性があります。

  • 可用性ヒューリスティック:このバイアスにより、個人は記憶に残る出来事や鮮明な出来事に関連するイベントの確率を過大評価するようになります。AI の失敗や成功に関するセンセーショナルなメディア報道は誇張され、AI の信頼性と安全性に対する認識に不釣り合いな影響を与える可能性があります。

  • 確証バイアス:他の人はどうしているでしょうか? 人々は、AI に関する既存の信念や仮説を裏付けるような方法で情報を探したり解釈したりすることがあります。このバイアスは、AI テクノロジーとその潜在的な利点やリスクの客観的な評価を妨げる可能性があります。

  • FOMO:人々は有益なテクノロジーを見逃したくないが、その影響について理解が足りない場合があります。このバイアスは、批判的な評価を覆い隠し、時期尚早な採用につながる可能性があります。このバイアスは、バンドワゴン効果 (例: 他の人がやっている、または影響力のある人がやっているからという理由で物事を実行したり信じたりする傾向) に関連しています。人々が AI テクノロジーを信頼したり不信感を抱いたりするのは、単にそれが一般的な感情であるように見えるからです。


  • 現状維持バイアス:人々は現状を維持することを好み、潜在的なメリットや実証された優位性にかかわらず、AI のような新しいものを採用することに抵抗を感じます。このバイアスにより、イノベーションや生活を向上させる可能性のあるテクノロジーの採用が遅れる可能性があります。


  • 損失回避:このバイアスにより、何かを失うことによる痛みは、同等の価値のある何かを得ることによる喜びよりも強く感じられます。AI の場合、これは、仕事の喪失や制御の喪失に対する恐怖が、安全性、効率性、利便性の利点を覆い隠すことを意味します。

  • 自信過剰バイアス:何かを制御または理解する自分の能力を過大評価すること。AI の場合、これは AI に関連するリスクを過大評価または過小評価することを意味します。


  • アルゴリズム嫌悪/信頼:数字は恐ろしいものです。人々はアルゴリズムに対して偏見を持ち、証拠がそうでないことを示唆している場合でも、人間の意思決定の方が優れていると信じがちです。一方、AI システムのエラーや偏見の可能性を無視して、AI の決定に疑いなく信頼を寄せる人もいます。


経済合理性


興味深いですね。しかし、実のところ、これはすべて理論上の話です。最終的に私たちがこの決定を下すことはないかもしれません。企業はすでにこの決定を下しています。

多くの企業がAIの導入に突入している。それは主に、倫理的な議論よりもROIの方が重要だからだ。 代表的な例としてAmazonを挙げると、自動化への大きな転換により、効率性と経済的利益は明白かつ測定可能となり、現金という現実を前にすると、道徳的、社会的批判は突如としてより学術的なものに感じられるようになる。


それでも、これは冷酷な資本主義だけの問題ではなく、生き残りと適応の問題です。企業は毎日、テクノロジーの採用と倫理的および ESG の責任とのバランスを取るという課題に直面しています。AI が雇用と人間の幸福に与える影響は、後付けでは済まされません。何千人もの人々にとって、経済的な安定とキャリアの健全性は、これらの決定にかかっています。これは多くの企業が取り組んでいる問題です。


ここで道徳的義務の問題はより微妙なものになります。AI が業務を効率化し、コストを削減し、さらには新たな機会を創出できるのであれば、私たちにもこれらのテクノロジーを探求する道徳的責任があるのではないでしょうか。


重要なのは、倫理的な指針を常に手元に置いて、AI の効率性を受け入れると同時に、AI が不当に生活を混乱させる可能性を防ぐようにすることです。

私たちは移行期にあります

いずれにせよ、私たちは足元に気を配る必要があります。私たちは新しい時代の瀬戸際に立っており、一歩踏み出せば自由落下に陥る可能性もあります。AI はもはや未来の空想ではなく、私たちの日常生活や仕事に完全に根付いています。それは刺激的でもあり、非常に恐ろしいことでもあります。


私たちが直面している最も重大な課題の 1 つは、アクセシビリティまたは技術格差です。AI はテクノロジーを民主化し、強力なツールをより幅広いユーザーに提供できる可能性があります。ただし、現時点では、AI の可能性を認識しているのは、すでに一定レベルのアクセス権を持つ人々であるため、AI が既存の不平等を軽減するのではなく、悪化させる可能性もあります。


今は調整の時期なので、AI のメリットが広く行き渡るようにするには、忍耐、教育、積極的な対策が必要です。AI の潜在能力を、一部の特権階級だけでなく、すべての人に解き放つことができるように、公平な競争の場を提供する可能性が私たちにはあります。



協力の難問


そうです、これは矛盾です。AI が人間と並んで最適に機能するには、特定のタスクで人間より優れている必要があります。しかし、その優位性が人間の役割を奪い、私たち人間の間に抵抗と恐怖を煽る恐れがあります。


このパラドックスは AI にとって厳しい「押し引き」を生み出します。だからこそ、道徳について白熱した議論が繰り広げられているのです。解決策は、AI と人間の協力の溝を倫理的に埋めることを目的とした、新しい設計哲学と技術の組み合わせであると私は考えています。以下にそれらをリストします。ChatGPT に尋ねる価値のある内容です。


  • 人間中心の AI 設計 (HCAI):人間のニーズと価値観を中心に据えて AI システムが開発されることを保証します。

  • 説明可能な AI (XAI): AI の決定をわかりやすくし、人間が理解し、透明性を高めます。

  • 倫理的な AI フレームワーク:人権と価値観を尊重する方法で AI システムの開発と展開をガイドします。

  • 適応型/応答型 AI:人間のフィードバックを学習して適応し、相乗効果のある関係を確保します。

  • 参加型設計: AI 開発プロセスにエンドユーザーを参加させ、そのニーズと懸念に確実に対処します。

  • 拡張知能:人間の能力を置き換えるのではなく、強化する AI の役割を強調します。

  • 信頼できる AI:信頼性、安全性、倫理的保証を通じて AI システムへの信頼を構築します。

自動運転車にするべきか、それとも自動運転車にしないべきか?


最後に、私の立場を述べたいと思います。AI の導入は道徳的責務であると私は考えています。私の見解では、人命を救い、生活の質を高め、さらには長年の不平等を解消する可能性は無視できないほど大きいものです。しかし、これは何も考えずに飛び込むべきだという意味ではありません。私の意見では、AI には熱意と慎重さの両方を持って取り組む必要があります。つまり、その可能性を探求することにワクワクしながらも、倫理的、社会的、経済的影響に留意する必要があるのです。


思慮深い検討、堅牢な倫理的枠組み、厳格なガバナンスは、AI の潜在能力を責任を持って解き放つ鍵となります。


この件についてはまだ議論の余地があります。だから、あなたに質問を投げかけます。ここに返信するか、私のLinkedIn スレッドそして、私がなぜ間違っているのか、あるいは正しいのか教えてください。この複雑な問題について、皆さんの考えやコメントをお待ちしています。


私たちは、AI が要求する道徳的な真剣さをもって AI を受け入れる準備ができているでしょうか?

次回のドライブ旅行を自動運転車で楽しむ準備はできていますか?