paint-brush
现代战争中的人工智能伦理:平衡创新与道德责任经过@nimit
12,710 讀數
12,710 讀數

现代战争中的人工智能伦理:平衡创新与道德责任

经过 Nimit6m2024/04/06
Read on Terminal Reader

太長; 讀書

本文深入探讨了人工智能在战争中应用所带来的道德困境,探讨了自主武器系统的含义及其对军事战略的影响。文章权衡了提高精确度和减少人员伤亡的好处与将生死攸关的决定权交给机器的道德顾虑以及遵守正义战争理论原则的挑战。文章还讨论了国际社会在人工智能驱动的军事应用方面的监管和问责努力。
featured image - 现代战争中的人工智能伦理:平衡创新与道德责任
Nimit HackerNoon profile picture
0-item

人工智能 (AI ) 继续发展成为生活许多领域的变革力量,已经开始彻底改变行业并重塑我们的生活和工作方式。人工智能在战争中的应用将需要政府、政策制定者和国际组织日益关注。这在很大程度上归功于自主武器系统 (AWS) 的重大发展,该系统使用算法在战场上独立运行,无需人工监督。更广泛地说,人工智能的多种形式都有可能增强一系列军事活动,从机器人和武器到情报收集和决策。


如此多样化的潜在应用带来了一系列独特的道德困境。人工智能在战争中的好处是提高精确度、减少人员伤亡,甚至可以阻止人们卷入类似于核战争威胁的武装冲突。然而,这意味着赋予机器做出生死攸关决定的能力,模糊了责任界限,并可能违背战争道德的基本原则。


战争中的人工智能简要概述

正如斯德哥尔摩国际和平研究所所言,人工智能已成为军事战略和预算的重要组成部分,助长了更广泛的“军备竞赛”[1]。因此,加上核武器和原子弹等威胁,地缘政治必须质疑继续将技术武器化的伦理问题。一些人认为,这些进步最终将导致零和思维主导世界政治。这种逻辑并不新鲜;阿尔弗雷德·诺贝尔希望炸药的破坏力能终结所有战争[2]。


人工智能已经开始融入战争技术,例如无人机群、制导导弹和后勤分析。自主系统融入防御武器的时间更长,例如反车辆和反步兵地雷。未来的发展将继续追求更高的自主性水平。美国正在测试可以自行驾驶改进版 F-16 战斗机的人工智能机器人;俄罗斯正在测试自主坦克;中国也在开发自己的人工智能武器[3]。


我们的目标是通过继续实现战场机械化和自动化来保护人类生命。“我很容易想象到未来无人机的数量将大大超过军队人数[3]”,核威胁倡议高级顾问道格拉斯·肖说。因此,我们不是将士兵部署在地面上,而是将他们放在飞机上并配备导弹,以拯救生命。现在有了人工智能,军队希望从其军队中拯救更多的人的生命。


人工智能在战争中的道德影响

到目前为止,这听起来很棒。使用人工智能指挥无人机可以拯救生命。使用人工智能发射导弹可以拯救生命。战争中的这种技术飞跃与过去的创新之间的区别在于决策中缺乏人类的参与。借助 AWS 和致命自主武器系统 (LAWS),我们将杀人的权力交给了没有直觉人性的算法。


这里出现了几个伦理、道德和法律问题。


在战争中夺去他人生命,而另一方却没有其他人,这公平吗?LAWS 算法的程序员是否与战斗机飞行员一样,有责任代表国家,和/或有同样的权利参与夺取敌人的生命?


就像自动驾驶汽车面临的道德困境[4]一样,将生死攸关的决定权交给人工智能算法在道德上是否合理?从技术角度来看,这将在一定程度上取决于 AWS 编程的透明度:这些模型中的训练、使用的数据集、编码偏好和偏见等错误。即使我们达到了足够的准确性和透明度,AWS 和 LAWS 在战争中是否应该被视为合乎道德?


正义战争理论的道德含义

正义战争理论由圣奥古斯丁和托马斯·阿奎那于 13 世纪提出[5],旨在评估战争的道德性和武装冲突中的道德决策。在jus ad bellum (战争正义)和jus in bello (战争中的正义)指导方针中,最值得注意的考虑因素是:


  • 比例原则:使用武力必须与所追求的目标相称,并且不得造成相对于预期利益过度的伤害或痛苦。
  • 歧视:又称非战斗员豁免,该原则要求战斗员区分战斗员和非战斗员,只针对前者,同时尽量减少对后者的伤害。


可以说,使用人工智能武器和致命性自主武器系统并不能保证遵守这些公约。


从比例上看,人工智能支持的武器将能够以比以往更快的速度、更大的威力和更高的精度发射武器。这种级别的武力是否一定能与所构成的威胁/军事目标相匹配,尤其是当用于对抗武器技术较不先进的国家时?同样,如果 LAWS 收到错误的情报,或者产生幻觉并做出不准确的预测,会怎么样?这可能导致形成和执行不必要的军事力量和不成比例的行动。


在识别方面,这些技术并非 100% 准确。当向敌军发射导弹时,如果面部识别[6]技术无法区分平民和战斗人员,会发生什么?这将破坏合法军事目标和无辜旁观者之间的道德区别。


案例分析

联合国专家小组报告称,2020 年,土耳其军方可能在利比亚使用 LAWS(STM Kargu-2)来对抗哈夫塔尔附属部队(HAF)[7]。该无人机被描述为“无需操作员和弹药之间的数据连接即可攻击目标”[8],最终被电子干扰所摧毁。然而,这种远程空中技术的介入改变了此前“低强度、低技术冲突的形势,避免伤亡和保护部队是双方的首要任务”[7]。


虽然无人攻击无人机造成了重大人员伤亡,但尚不清楚是否造成了人员死亡[8]。不过,这凸显了不受管制、无人驾驶使用作战飞机和无人机的问题。


HAF 部队没有接受过防御这种攻击形式的训练,没有防御空袭的保护措施(尽管无人机处于离线状态,但仍然遭到空袭),甚至在撤退时也继续受到 LAWS 的骚扰。仅凭这一点就已经开始违反比例原则,尤其是考虑到 STM Kargu-2 改变了冲突的动态。报告甚至暗示“土耳其将先进的军事技术引入冲突是导致 HAF 在 2020 年在利比亚西部失败的不平衡消耗战的决定性因素”[7]。


人工智能军事应用的国际合作与监管

自 2018 年以来,联合国秘书长安东尼奥·古特雷斯一直坚持认为,致命自动武器系统在政治和道德上都是不可接受的[9]。古特雷斯在 2023 年新和平议程中呼吁在 2026 年前将其正式化并付诸行动。根据这一议程,他建议全面禁止使用自动武器系统,因为它在没有人工监督的情况下运行,不符合国际法和所有其他自动武器系统的监管。


这种国际合作和监管对于克服我们讨论过的道德问题是必不可少的。目前,在没有人工监督的情况下使用 AWS 将导致最紧迫的问题。缺乏人类决策者会产生责任问题。如果没有指挥链,谁来为人工智能系统的故障或普遍缺陷负责?


此外,随之而来的是缺乏责任感。特别是在传统战争中,有明确的道德原则,如正义战争理论,而对于自主系统采取的行动,没有责任人。


最后,虽然在军事应用中越来越多地采用人工智能有好处,但这些技术最终如何使用将决定它是成为一个乌托邦式的解决方案还是会加剧本已在政治上不稳定的军备竞赛。


因此,围绕确保人工智能战争问责制的国际、具有法律约束力的框架的持续讨论,可以说将成为近期人工智能监管最重要的领域之一。



参考

  1. 武器化创新:绘制欧盟人工智能安全与防御地图
  2. 战争与科技 - 外交政策研究所
  3. 人工智能将如何彻底改变战争
  4. 道德人工智能和自动驾驶汽车:在自动驾驶汽车时代捍卫道德原则 | HackerNoon
  5. 正义战争理论 | 互联网哲学百科全书
  6. 面部识别技术中的偏见:探索面部识别系统如何延续偏见 | HackerNoon
  7. 利比亚,使用致命自主武器系统 | 法律如何在战争中保护? - 在线案例
  8. Kargu-2 自主攻击无人机:法律与道德层面 - 西点军校利伯研究所
  9. 致命自主武器系统 (LAWS) – 联合国裁军事务厅