自動運転車(AV)の概念は、道路上での意思決定の自律性の移譲の倫理に関して長い間議論を引き起こしてきました。自動車技術者協会は、AV 機能を差別化するために業界全体で公式に使用されている 6 つの自律性レベルを設定しています。
レベル 0 ~ 2 AV はすでに商業市場に存在します。レベル 3 は、能力における最初の大幅なジャンプです。これは、短時間であれば自動運転が可能だが、システムからの要求に応じて人間のドライバーが介入できるようにする必要がある車両について説明しています。レベル 4 ~ 5 では、環境検出を超えます。これらには、人間の介入を完全に排除する最先端のテクノロジーが含まれています。レベル 4 の AV は、特定の条件下で人間の介入なしで全行程を完了できます。レベル 5 は、どのような状況でも旅全体を完了できます。レベル 5 は、たとえば、ハンドルやペダルさえ必要としない車両に関連付けられます。
これら 2 つのより高いレベルの自律性を取り巻く道徳的および倫理的なジレンマは、ほとんどすべての直接的な意思決定権の喪失から生じます。コアテクノロジーの正しい機能、人命と原則を尊重する能力、トレードオフ、および説明責任はすべて、倫理的および法的枠組みの両方で問題になります。
悪名高いトロリー問題から始めて、これらを検討していきます。
トロリー問題は、美徳倫理学と呼ばれる哲学の一分野内で作成された思考実験であり、予見可能な結果が意図された結果と道徳的レベルでどのように比較されるかを議論します。英国の哲学者フィリッパ・フット (1967 年) によって考案された主なバリエーションは次のとおりです。
トロリーが制御不能になり、壊れることもできずに線路に沿って走っています。しかし、この線路には5人が縛り付けられており、トロッコが急速に近づいている。あなたは線路から離れたレバーの隣に立っていて、レバーを引くとトロリーの軌道が別の線路に変更されます。この代替線路には 1 人しか拘束されていないため、現時点ではトロッコによって 5 人が死亡することになりますが、行動を起こせば 1 人に減る可能性があります。レバーを引きますか?
トロッコ問題は、さまざまな倫理的枠組みの下で見ることができます。
どのようなイデオロギーであっても、他者への危害を最小限に抑えるという私たちの義務は、道徳的に正しい行動を選択するという私たちの義務と直接矛盾します。自動運転車において多くの人が疑問に思っているのは、このような意思決定やトレードオフを重視する能力です。たとえば、AV が衝突しそうになった場合、車両の乗客を歩行者や他の車両よりも優先する必要がありますか?
ただし、自動運転車の倫理において考慮する必要があるのは、難しい決断を下す能力だけではありません。どの倫理的枠組みがトロリー問題に最もよく答えるかについて人類自身が同意できないとき、私たちはどのように自動運転車をプログラムして、1つのイデオロギーの下でこのようなトレードオフを比較検討するつもりなのでしょうか?
どのような基本的な価値観や原則を AI にプログラミングすべきでしょうか?
救われる命の数というプラスの義務を優先するべきでしょうか、それとも、実際に行われる被害を最小限に抑えるというマイナスの義務を優先すべきでしょうか?
2018 年、Uber はアリゾナ州でレベル 3 AV をテストし、その結果、AV によって引き起こされた初めての悲劇的な歩行者死亡事故が発生しました。レベル 3 であるため、車両には補助ドライバーが同乗していましたが、それだけでは十分ではありませんでした。環境検知システムが障害物(ここでは自転車に乗った歩行者)を正確に識別するのに苦労しているため、車の警報システムは危害の可能性を十分に迅速に認識できませんでした。後続ドライバーが制御を引き継ぐように最終的に警告されたとき、車両はすでに衝突まで 0.2 秒で、時速 39 マイルで走行していました。
この例では、バックアップドライバー自身に危害を加える危険がなかったため、AV の乗員と車外の歩行者に対する直接的な危害のトレードオフについて必ずしも議論しているわけではありません。しかし、このことによって、私たちが独自の感覚検出ではなく AI の感覚検出に依存できるのか、依存すべきなのか、また、このような高圧かつ短時間のシナリオでは手動によるオーバーライドが実行可能なバックアップであるかどうかが明らかになります。
また、殺人の責任を負う道徳的主体の欠如によって、たとえ一時的であっても自主性をAVに移譲するという問題も浮き彫りにしている。この訴訟では、ウーバーはアリゾナ州でテストしていた他の90台以上のレベル3AVを撤回し、被害者の家族と和解した。一方、補助運転手は過失致死罪で起訴された。責任の所在は正しく彼女にあったのか、それとも車に責任があるべきだったのか――後者の可能性はあるのだろうか?
ユネスコは、AIの倫理的枠組みは危害の回避と人権の尊重を優先すべきであると概説している。安全性と無差別は機械学習の原則を支えるものでなければなりません。責任ある AI と並んで、人間の監視、制御、説明責任も不可欠であると考えられる必要があります。
公平性と「より大きな善のために」という追加の概念は、AI が意思決定に功利主義的なイデオロギーを使用することを望んでいることを示唆しています。一方、「人権の尊重」は、行為自体の道徳的正しさ、すなわち義務論に影響を及ぼします。
もちろん、透明性は、最終的に AV によって決定がどのように計算されるかを理解する上でも最も重要です。 AV 事故の場合に引き起こされる損害、または防止される損害を評価するには、基盤となる AI テクノロジーがどのように、そしてなぜ特定の結論に達するのかを理解する必要があります。 AV に対する国民の信頼には、説明責任を理解し、適切な枠組みが遵守されていることを確認することが必要です。
欧州議会調査局は、自動化された意思決定 AI の開発と導入において対処する必要がある倫理的、法的、経済的懸念を認識しています。これには、基礎となるアルゴリズムで倫理原則を開発する方法や、AI イノベーションの指数関数的な速度に世界的な政策と規制を対応させる方法に関する研究が含まれます。
人権の観点からは、人間の主体性も優先されており、研究機関は「自動化された処理のみに基づいた決定の影響を受けないエンドユーザーの権利」を保護したいと考えている。テクノロジーの面では、安全で信頼性の高いシステムを確保するために、サイバーセキュリティ標準がより重要になります。倫理的な AI には信頼できるソフトウェアが必要です。
現在、英国の道路で一般の人々がレベル 3+ AV を使用することはなく、国内市場で入手可能なそのような車両もまだありませんが、BMW、テスラ、メルセデスなどの業界の大手企業は、テクノロジーを使用して 2025 年までにこれらの AV を発売することを目指しています。 Traffic Jam Pilot のようにそうすることができます。
AV が意思決定の倫理を正しく理解できれば、大きなメリットが得られます。一部の推定では、道路上での交通関連事故が 90% 減少すると予測されています。それでも、AV を支えるテクノロジーに関して意思決定をどのように行い、トレードオフに優先順位を付けるかを概説する、定量化可能な倫理的および法的枠組みがまだ存在していないことは明らかです。
したがって、AV プレーヤーは、「害を最小限に抑える」とは何を意味するのか、どの倫理イデオロギーが意思決定に影響を与えるのかをさらに詳しく説明する必要があります。 2018年のウーバーの事故で見たように、責任と主体性も明確にする必要があるだろう。これらすべて、それらがどのように扱われるか、そして私たちがどの方向に進むかは、社会にとって長期的な倫理的影響を及ぼします。