paint-brush
道德人工智能和自动驾驶汽车:在自动驾驶汽车时代倡导道德原则经过@nimit
12,402 讀數
12,402 讀數

道德人工智能和自动驾驶汽车:在自动驾驶汽车时代倡导道德原则

经过 Nimit6m2024/03/21
Read on Terminal Reader

太長; 讀書

本文通过“电车难题”等道德框架的视角,探讨了自动驾驶汽车 (AV) 遇到的道德挑战,特别是在较高的自主水平上。讨论了 Uber 事件的案例研究,强调了人工智能决策、感官可靠性和法律责任等问题。最后强调了自动驾驶汽车有明确的道德和法律准则的必要性,以确保社会信任和自主技术负责任的进步。
featured image - 道德人工智能和自动驾驶汽车:在自动驾驶汽车时代倡导道德原则
Nimit HackerNoon profile picture
0-item

自动驾驶汽车(AV)的概念长期以来引发了关于在道路上转移决策自主权的道德争议。汽车工程师协会制定了全行业正式使用的 6 个自主级别,以区分自动驾驶功能。


0-2 级 AV 已经存在于商业市场中。 3 级是能力的第一次显着提升。它描述了可以短时间自动驾驶的车辆,但需要人类驾驶员准备好在系统请求时进行干预。 4-5 级则超出了环境检测的范围。这些包括完全消除人类干预的尖端技术。 4级自动驾驶汽车可以在特定条件下无需人工干预即可完成整个旅程。 5级可以在任何情况下完成整个旅程。例如,5 级与甚至不需要方向盘或踏板的车辆相关。


围绕这两个更高层次的自治而出现的道德和伦理困境是由于几乎所有直接决策权的丧失而产生的。核心技术的正确运作、重视人类生命的能力和原则、权衡和责任,都成为道德和法律框架下的问题。


我们将从臭名昭著的电车难题开始探索这些问题。

电车难题

电车难题是在称为美德伦理学的哲学分支中创建的思想实验,讨论可预见的后果与道德层面上的预期后果如何比较。由英国哲学家 Philippa Foot (1967) 设计的主要变体如下:


一辆电车沿着一组轨道运行,失去控制且无法中断。然而,5个人被绑在这些轨道上,电车正在快速接近他们。你站在一个杠杆旁边的轨道上,如果拉动杠杆,手推车的轨迹就会转移到另一组轨道上。这条替代轨道上只有一个人,所以电车目前会杀死 5 人,但如果你采取行动,这个数字可能会减少到只有 1 人。你拉动操纵杆吗?

决策中的道德框架

电车难题可以在许多道德框架下看待。


  • 结果主义者认为,最好通过任何必要的手段来减少结果的总体危害。
  • 义务论者认为,拉动操纵杆并主动杀死一个人的行为比让电车继续其应有的路线在道德上更加错误。
  • 功利主义者认为,最道德的选择可以为最大多数人创造最大的利益。
  • 罗尔斯主义者认为,所有生命都是平等的,为了实现正义并以最公平的方式行事,必须防止更大的伤害。
  • 基于权利的伦理学认为,生命权是绝对的,不应因任何权衡而被侵犯或牺牲。


无论哪种意识形态,我们尽量减少对他人伤害的责任与我们选择道德正确行为的责任直接冲突。许多人质疑自动驾驶汽车是否能够重视此类决策和权衡。例如,如果自动驾驶汽车即将发生碰撞,车辆乘客是否应该优先于行人/其他车辆?


然而,自动驾驶汽车的道德规范中必须考虑的不仅仅是做出艰难决定的能力。当人类自己无法就哪种道德框架最能解决电车问题达成一致时,我们该如何对自动驾驶汽车进行编程,以在一种意识形态下权衡此类权衡呢?


我们应该将哪些基本价值观和原则写入人工智能?


我们应该希望它优先考虑积极的职责:拯救生命的数量,还是消极的职责:最大限度地减少造成的主动伤害?

案例分析

2018 年,Uber 在亚利桑那州测试了 3 级自动驾驶汽车,导致行人惨死——这是有史以来第一次由自动驾驶汽车造成的事故。作为 3 级,车内有一名后备驾驶员,但这还不够。由于环境检测系统难以正确识别障碍物(这里是骑自行车的行人),汽车的警报系统无法足够快地识别出伤害的可能性。当后备司机最终接到警报接管控制权时,车辆距离撞击已有 0.2 秒,并以 39 英里/小时的速度行驶。


这个例子不一定讨论对自动驾驶汽车乘客的直接伤害与车辆外部行人的直接伤害的权衡,因为备用司机本人从未面临伤害的风险。然而,它确实揭示了我们是否可以并且应该依赖人工智能感知检测而不是我们自己的感知检测,以及在这种高压、短时间的情况下手动覆盖是否是可行的备份。


它还凸显了由于缺乏对杀戮负有责任的道德代理人而将自主权(即使是暂时的)转移给自动驾驶汽车的问题。在这起案件中,Uber 撤回了其在亚利桑那州测试的 90 多辆其他 3 级自动驾驶汽车,并与受害者家属达成和解。另一方面,备用司机被指控犯有过失杀人罪。责任是否正确地归咎于她,或者应该归咎于车辆——后者有可能吗?

道德人工智能

联合国教科文组织概述人工智能道德框架应优先考虑避免伤害和尊重人权。安全和非歧视应成为机器学习原则的基础。人类监督、控制和问责与负责任的人工智能一样重要。


公平和“为了更大的利益”的附加概念表明,我们希望人工智能使用功利主义意识形态进行决策。另一方面,“尊重人权”涉及到行为本身的道德正确性,即道义论。


当然,透明度对于理解自动驾驶汽车最终如何计算决策也至关重要。为了评估自动驾驶事故造成或预防的伤害,我们需要了解底层人工智能技术如何以及为何得出某个结论。公众对自动驾驶汽车的信任需要了解责任,并确保遵守正确的框架。

道德自动决策

欧洲议会研究服务机构认识到在开发和部署自动化决策人工智能时必须解决的道德、法律和经济问题。这包括研究如何在底层算法中制定道德原则,以及如何使全球政策和法规跟上人工智能创新的指数速度。


在人权方面,人类机构也受到优先考虑,研究机构希望保护“最终用户不受到仅基于自动化处理的决定的影响”。在技术方面,网络安全标准对于确保系统安全可靠将变得更加重要。符合道德的人工智能需要值得信赖的软件。

结论

虽然我们目前还没有让公众在英国道路上使用 3 级以上自动驾驶汽车,也没有在国内市场上销售任何此类车辆,但宝马、特斯拉和梅赛德斯等行业主要参与者的目标是在 2025 年利用技术推出这些车辆像 Traffic Jam Pilot 那样这样做。


如果自动驾驶汽车遵循正确的决策道德,将会带来巨大的好处。据估计,道路上与交通相关的事故将减少 90%。尽管如此,很明显,我们还没有可量化的道德和法律框架来概述在支持自动驾驶的技术方面应如何做出决策和优先权衡。


因此,AV 参与者需要进一步概述“尽量减少伤害”的含义,以及哪种道德意识形态应该指导决策。正如我们在 2018 年 Uber 事故中看到的那样,责任和机构也必须澄清。所有这些,如何处理,以及我们朝哪个方向前进,都将对社会产生长期的道德影响。

参考