paint-brush
我们在道义上有义务采用人工智能吗?经过@corhymel
1,141 讀數
1,141 讀數

我们在道义上有义务采用人工智能吗?

经过 Cory Hymel8m2024/04/20
Read on Terminal Reader

太長; 讀書

弗兰克·陈(左二)在提出该问题的 AI 小组讨论中。图片来源:Gigster
featured image - 我们在道义上有义务采用人工智能吗?
Cory Hymel HackerNoon profile picture
0-item

五年前,弗兰克·陈(Frank Chen)提出了一个问题,这个问题一直萦绕在我的脑海中。这个问题是:“如果自动驾驶汽车的安全性提高了 51%,那么从道义上讲,我们是否没有义务采用它们?”在过去五年中,我多次提出过这个问题,通常,下意识的反应会引发一场有趣的辩论。这个问题之所以如此重要,是因为它有锋芒——它不是 99% 安全,也不是 70% 安全,它只是51% 安全。


具体来说,美国国家公路安全管理局报告称,2022 年交通事故死亡人数估计为 42,795 人。42,795 人的 50% 为 21,398 人,51% 为 21,825 人。


这意味着,如果自动驾驶汽车的安全性提高 51%,那么每年可以挽救 427 人的生命。这相当于 1.5 架满载乘客的波音 777 飞机。


拯救 427 条生命是否能成为收养的道德依据?


在我分享这个问题的五年里,答案从来都不是简单的。它们总是充满着“如果”。但即使答案不够清晰,我认为这个问题非常重要。部分原因是它开启了一场更广泛、同样重要的辩论,即在我们生活和工作的许多方面采用人工智能的道德责任。毕竟,避免使用可以拯救生命的技术可能与过早采用技术一样具有道德问题,


采用人工智能的道德责任


我一直认为,围绕自动驾驶汽车的争论是人工智能广泛讨论的完美缩影。如果我们拥有的技术在统计上比人类驾驶的汽车更安全,那么道德选择不是显而易见的吗?


考虑一下: 学习研究表明,与自动驾驶汽车(人工智能汽车)相比,人类驾驶员发生具有重大受伤风险的车祸的概率更高。具体来说,人类驾驶员每百万英里造成的受伤人数为 0.24 人(IPMM),每百万英里造成的死亡人数为 0.01 人(FPMM),而自动驾驶汽车造成的受伤人数为 0.06 人(IPMM),死亡人数为 0 人(FPMM)。


请记住,这些数字不仅仅是统计数字。它们代表着通过采用人工智能技术可以拯救的真实生命。


但为什么要止步于自动驾驶汽车呢?人工智能在提高安全性、效率和准确性方面的潜力涵盖了医学、公共卫生、食品安全、农业、网络安全、犯罪预防和军事科学等领域。如果人工智能能够比人类医生更准确地诊断疾病,在农作物歉收破坏粮食供应之前预测农作物歉收,或者在网络攻击破坏我们的数据之前阻止它们,我们难道没有道德义务也利用这些技术吗?


当然,这些都是戏剧性的例子,但争论的范围超出了生死攸关的场景。人工智能改善我们日常生活质量的能力同样引人注目。无论是通过简化平凡的任务,还是使信息和服务更易于获取和公平,人工智能都可以结束单调乏味的工作并提高我们的日常生活质量。采用人工智能的道德责任不仅是为了防止伤害或死亡;还在于我们是否有义务在力所能及的情况下为人类福祉做出贡献。

选择与安全的困境


那么,我们是否应该选择人工驾驶的车辆(或人工主导的流程),尽管我们明知它们不如人工智能车辆安全或高效?仅仅因为它们更像人类?


面对人机操作系统和人工智能增强型替代方案之间的选择,我的想法是,这个决定显然应该取决于安全性和效率,而不是对某些模糊的“人性化”概念的忠诚。


拥抱人工智能并不意味着无视人类的价值或投入;相反,它是关于承认人类并不是天生就优越——而且说实话,在特定情况下往往明显低劣。


现在请不要动手,我不会加入机器人霸主团队。我理解很多人对人工智能已经对他们的工作造成的破坏以及毫无疑问正在走向的社会变革感到的焦虑。我只是想知道从长远来看,人工智能的效率和生活质量效益是否可能超过这些破坏的影响。


我们不愿采用人工智能的部分原因是认知偏见和恐惧。作为一个以适应性强而闻名的物种,我们人类并不喜欢改变。


认知偏见在我们犹豫是否接受人工智能方面发挥了重要作用。认知偏见是一种心理模式,是从我们作为智人早期遗留下来的。它们是我们的思维习惯——认知捷径,在逃避掠食者时可能很有用,但肯定会扭曲我们现代的感知和判断。


在这种情况下,认识并解决这些偏见对于以更理性、更合乎道德的方式采用人工智能至关重要。以下是我认为可能会发挥作用的一些因素,它们会影响我们对人工智能技术的怀疑、信任或接受。

  • 拟人化偏见:人们倾向于将人类特征归因于人工智能或机器人,从而影响他们的信任和期望。这可能导致对人工智能系统能力做出不切实际的假设或将其归因于邪恶意图。

  • 可用性启发法:这种偏见导致个人高估与令人难忘或生动的事件相关的事件的概率。媒体对人工智能失败或成功的耸人听闻的报道可能会被夸大,并过度影响人们对人工智能可靠性和安全性的看法。

  • 确认偏差:其他人都在做什么?人们可能会以确认他们对人工智能的既有信念或假设的方式寻找或解读信息。这种偏见可能会妨碍对人工智能技术及其潜在利益或风险的客观评估。

  • FOMO:人们不想错过有益的技术,但可能缺乏对其影响的理解。这种偏见可能会掩盖批判性评价并导致过早采用。这种偏见与从众效应有关(例如,倾向于做或相信某事,因为其他人都这样做 - 或有影响力的人这样做)。人们可能仅仅因为这似乎是普遍的情绪而信任或不信任人工智能技术。


  • 现状偏见:人们倾向于维持现状,这导致人们抵制采用人工智能等新事物,无论其潜在好处或已证实的优势如何。这种偏见会阻碍创新和采用可能改善生活的技术。


  • 损失厌恶:这种偏见使失去某物的痛苦比获得同等价值的事物的快乐更加强烈。对于人工智能而言,这意味着对失业或失去控制的恐惧掩盖了安全/效率/便利带来的好处。

  • 过度自信偏差:高估自己控制或理解某事的能力。对于人工智能而言,这意味着高估或低估与人工智能相关的风险。


  • 算法厌恶/信任:数字很可怕!人们往往对算法有偏见,相信人类决策更优越,即使有证据表明并非如此。另一方面,有些人可能也对人工智能决策抱有绝对的信任,忽略了人工智能系统可能存在的错误或偏见。


经济理性


很有趣,对吧?但事实是,这都是理论性的。我们甚至可能最终都无法做出这个决定。公司已经在做决定了。

许多公司都在大力推进人工智能集成——主要是因为投资回报往往比道德争论更有说服力。 以亚马逊为例,随着自动化的重大转变,效率和经济效益是实实在在、可以衡量的,而且在冰冷的金钱面前,道德和社会批评突然显得更加学术化。


不过,这不仅关乎铁石心肠的资本主义,还关乎生存和适应。企业每天都面临着平衡技术采用与道德和 ESG 责任的挑战。人工智能对就业和人类福祉的影响不能被忽视。对于成千上万的人来说,财务稳定和职业健康取决于这些决定。这是许多企业正在努力解决的问题。


而这正是道德责任问题变得更加微妙的地方。如果人工智能可以简化运营、降低成本,甚至创造新的机会,那么我们是否也有道德责任去探索这些技术呢?


关键在于时刻牢记道德指南针,确保我们在享受人工智能效率的同时,也能防止其不公平地破坏生计。

我们正处于过渡期

无论如何,我们都需要小心脚下。我们正站在一个新时代的悬崖边上,一股强大的力量就可能让我们陷入自由落体。人工智能不再是一个未来幻想,它已经完全融入了我们的日常生活和工作中。这令人兴奋,但也令人恐惧。


我们面临的最大挑战之一是可及性或技术差距。人工智能有潜力使技术民主化,让更广泛的受众能够使用强大的工具。然而,目前,人工智能的前景主要被那些已经拥有一定程度访问权限的人所看到,因此人工智能也有可能加剧现有的不平等,而不是缓解它们。


这是一个调整期,因此需要耐心、教育和积极措施,以确保人工智能的好处得到广泛传播。我们有可能创造公平的竞争环境,让人工智能的潜力惠及所有人,而不仅仅是少数特权阶层。



合作难题


好吧,这是一个悖论:人工智能要想与人类一起发挥最佳作用,就必须在某些任务上优于我们。但正是这种优越性有可能取代人类的角色,加剧我们凡人的抵抗和恐惧。


这种悖论为人工智能带来了艰难的“推拉”;这就是为什么我们看到如此激烈的道德争论。我相信解决方案可能是一套新兴的设计理念和技术,旨在以道德的方式弥合人工智能与人类合作之间的差距。我将在下面列出它们。它们值得向 ChatGPT 询问:


  • 以人为本的人工智能设计(HCAI):确保人工智能系统的开发以人类的需求和价值观为核心。

  • 可解释人工智能 (XAI):揭开人工智能决策的神秘面纱,使其对人类而言可理解且透明。

  • 道德人工智能框架:以尊重人权和价值观的方式指导人工智能系统的开发和部署。

  • 自适应/响应式人工智能:学习并适应人类的反馈,确保协同关系。

  • 参与式设计:让最终用户参与人工智能开发过程,确保他们的需求和顾虑得到解决。

  • 增强智能:强调人工智能在增强人类能力而不是取代人类能力方面的作用。

  • 值得信赖的人工智能:通过可靠性、安全性和道德保证建立对人工智能系统的信心。

自驾车,还是不自驾车?


最后,我要表明我的立场。我认为采用人工智能是一种道德责任。在我看来,人工智能在拯救生命、提高我们的生活质量,甚至解决长期不平等问题方面的潜力不容忽视。然而,这并不意味着我们应该不加思索地一头扎进去。在我看来,我们需要以热情与谨慎相结合的态度对待人工智能——保持对探索其可能性的兴奋,但要留意其道德、社会和经济影响。


周到的考虑、健全的道德框架和严格的治理是负责任地释放人工智能潜力的关键。


我仍然愿意就这个问题进行辩论。所以,我会把这个问题抛给你。在这里或在我的LinkedIn 主题告诉我为什么我错了——或者说我是对的。我欢迎你对这个复杂问题发表想法和评论。


我们是否已经准备好以人工智能所要求的道德严肃性去拥抱它了?

您准备好驾驶自动驾驶汽车进行下一次公路旅行了吗?