Концепция беспилотных транспортных средств (AV) уже давно вызывает споры об этичности передачи автономии принятия решений на дорогах. Общество автомобильных инженеров устанавливает 6 уровней автономии, официально используемых в отрасли для дифференциации возможностей AV. Уровни 0–2 AV уже существуют на коммерческих рынках. Уровень 3 — это первый значительный скачок в возможностях. В нем описываются транспортные средства, которые могут самостоятельно управлять автомобилем в течение коротких периодов времени, но требуют, чтобы водитель-человек был готов вмешаться, если система этого потребует. Уровни 4–5 выходят за рамки обнаружения окружающей среды. Они включают в себя передовые технологии, которые полностью исключают вмешательство человека. AV-пилоты 4-го уровня могут совершить весь путь без вмешательства человека при определенных условиях. Уровень 5 может совершать целые путешествия при любых обстоятельствах. Например, уровень 5 будет связан с транспортными средствами, которым даже не нужны рулевые колеса или педали. Моральные и этические дилеммы, возникающие вокруг этих двух более высоких уровней автономии, возникают из-за потери почти всех прямых полномочий по принятию решений. Правильное функционирование основных технологий, способность ценить человеческую жизнь и принципы, компромиссы и подотчетность — все это становится проблемами как с этической, так и с правовой точки зрения. Мы рассмотрим их, начиная с печально известной проблемы с троллейбусом. Проблема с троллейбусом «Проблема вагонетки» — это мысленный эксперимент, созданный в рамках раздела философии, называемого этикой добродетели, и обсуждающий, как предсказуемые последствия сравниваются с предполагаемыми последствиями на моральном уровне. Основной вариант, предложенный британским философом Филиппой Фут (1967), выглядит следующим образом: По путям движется троллейбус, вышедший из-под контроля и неспособный сломаться. Но к этим путям привязаны 5 человек, и троллейбус быстро приближается к ним. Вы стоите на путях рядом с рычагом, который, если потянуть за него, изменит траекторию тележки на другой набор путей. К этому альтернативному пути привязан только один человек, поэтому в настоящее время троллейбус убьет 5 человек, но если вы начнете действовать, их число можно сократить до одного. Вы тянете рычаг? Этические основы принятия решений Проблему троллейбуса можно рассматривать с точки зрения многих этических концепций. Консеквенциалисты утверждают, что лучше уменьшить общий вред от результата любыми необходимыми средствами. Деонтологи утверждают, что дергать рычаг и активно убивать одного человека более морально неправильно, чем позволять троллейбусу продолжать свой путь. Утилитаристы утверждают, что наиболее этичный выбор создает наибольшее количество благ для наибольшего числа людей. Сторонники Ролза утверждают, что все жизни равны, и чтобы добиться справедливости и действовать наиболее справедливо, необходимо предотвратить больший вред. Этика, основанная на правах, утверждает, что право на жизнь является абсолютным и не должно нарушаться или приноситься в жертву ради какого-либо компромисса. Какая бы идеология ни была, наш долг минимизировать вред другим находится в прямом противоречии с нашим долгом выбирать морально правильное действие. Именно способность ценить подобные решения и компромиссы многие подвергают сомнению в автономных транспортных средствах. Например, если AV вот-вот разобьется, следует ли пассажирам транспортного средства отдавать приоритет перед пешеходами/другими транспортными средствами? Однако не только способность принимать трудные решения должна учитываться в этике беспилотных транспортных средств. Когда люди сами не могут прийти к согласию относительно того, какая этическая основа лучше всего решит проблему троллейбуса, как мы можем запрограммировать беспилотные автомобили так, чтобы они взвешивали подобные компромиссы в рамках одной идеологии? Какие базовые ценности и принципы мы должны запрограммировать в ИИ? Должны ли мы хотеть, чтобы приоритет отдавался положительным обязанностям: числу спасенных жизней, или отрицательным обязанностям: минимизации активного причиненного вреда? Тематическое исследование В 2018 году Uber протестировал AV-систему 3-го уровня в Аризоне, что привело к трагической гибели пешеходов — первой в истории причиной гибели AV-транспорта. Будучи 3-м уровнем, в машине присутствовал запасной водитель, но этого было недостаточно. Поскольку система обнаружения окружающей среды изо всех сил пытается правильно идентифицировать препятствие (в данном случае пешеход с велосипедом), система оповещения автомобиля не распознала возможность причинения вреда достаточно быстро. К тому времени, когда резервный водитель был наконец предупрежден о необходимости взять на себя управление, транспортному средству оставалось уже 0,2 секунды до удара и он двигался со скоростью 39 миль в час. В этом примере не обязательно обсуждается компромисс между прямым вредом пассажирам AV и пешеходам, находящимся вне транспортного средства, поскольку запасной водитель никогда сам не подвергался риску причинения вреда. Тем не менее, это проясняет, можем ли мы и должны ли мы полагаться на сенсорное обнаружение ИИ вместо нашего собственного и является ли ручное управление осуществимой резервной копией в таких напряженных и краткосрочных сценариях. Это также подчеркивает проблему передачи автономии, даже временной, автономии из-за отсутствия морального агента, виновного в убийстве. В этом случае Uber отозвал более 90 других AV-автомобилей 3-го уровня, которые он тестировал в Аризоне, и договорился с семьей жертвы. С другой стороны, запасному водителю было предъявлено обвинение в убийстве по неосторожности. Была ли вина возложена на нее правильно или это должен был быть автомобиль – возможно ли последнее? Этический ИИ ЮНЕСКО подчеркивает, что этические рамки ИИ должны отдавать приоритет предотвращению вреда и уважению прав человека. Безопасность и недискриминация должны лежать в основе принципов машинного обучения. Человеческий надзор, контроль и подотчетность также следует считать важными наряду с ответственным ИИ. Дополнительные концепции справедливости и «для всеобщего блага» предполагают, что мы хотим, чтобы ИИ использовал утилитарную идеологию для принятия решений. С другой стороны, «уважение прав человека» играет роль в моральной правильности самих действий, т.е. в деонтологии. Прозрачность, конечно, также будет иметь первостепенное значение для понимания того, как решения в конечном итоге рассчитываются AV. Для оценки ущерба, причиненного или предотвращенного в случае аварии с AV, нам необходимо понять, как и почему лежащая в основе технология искусственного интеллекта приходит к определенному выводу. Общественное доверие к AV потребует понимания ответственности и обеспечения соблюдения правильных рамок. Этическое автоматизированное принятие решений Европейская парламентская исследовательская служба признает этические, юридические и экономические проблемы, которые необходимо учитывать при разработке и внедрении автоматизированного ИИ для принятия решений. Это включает в себя исследования о том, как разработать этические принципы в базовых алгоритмах и как привести глобальную политику и правила в соответствие с экспоненциальными темпами инноваций в области ИИ. С точки зрения прав человека, человеческая активность также находится в приоритете: исследовательские организации хотят защитить «право конечных пользователей не подчиняться решениям, основанным исключительно на автоматизированной обработке». Что касается технологий, стандарты кибербезопасности станут более важными для обеспечения безопасности и надежности систем. Этический ИИ требует надежного программного обеспечения. Заключение Хотя в настоящее время у нас нет широкой публики, использующей AV-автомобили уровня 3+ на дорогах Великобритании, или каких-либо подобных транспортных средств, доступных на внутренних рынках, крупные игроки отрасли, такие как BMW, Tesla и Mercedes, планируют запустить их к 2025 году с использованием технологий. например Traffic Jam Pilot, чтобы сделать это. Если АВ правильно поймут этику принятия решений, можно будет увидеть большие преимущества. По некоторым оценкам, количество дорожно-транспортных происшествий с их участием на дорогах сократится на 90%. Тем не менее, очевидно, что у нас еще нет поддающихся количественной оценке этических и правовых рамок, описывающих, как следует принимать решения и определять приоритеты компромиссов, когда речь идет о технологиях, лежащих в основе беспилотных летательных аппаратов. Таким образом, производителям AV-технологий необходимо будет более подробно объяснить, что означает «минимизировать вред» и какая этическая идеология должна диктовать принятие решений. Как мы видели на примере аварии с Uber в 2018 году, также необходимо будет прояснить ответственность и агентность. Все это, то, как с ними справляются и в каком направлении мы продвигаемся, будет иметь долгосрочные этические последствия для общества. Рекомендации Принятие этических решений в беспилотных транспортных средствах: Проект этики AV | Научная и инженерная этика (springer.com) Текущее состояние беспилотных автомобилей | Хакадей Будущее автономных транспортных средств (AV) | МакКинси Электромобили и автономные транспортные средства: будущее уже сейчас | Бейн и компания Этические рамки искусственного интеллекта (rootstrap.com) Решение этических дилемм в беспилотных транспортных средствах: практический пример | от Хеленджой | Середина Когда этика ИИ сбивается с пути: пример беспилотных транспортных средств (sagepub.com) «Я оператор»: последствия трагедии с беспилотным автомобилем | ПРОВОДНОЙ Навигация по уровням автономных транспортных средств: дело Васкеса и споры между уровнями 3 и 4 автономии - Юридический журнал штата Аризона Авария на дороге Uber AV вызывает вопросы | Новости | Время страхования Проблема троллейбуса — истоки. Проблема троллейбуса – это мысль… | Сара Бизарро | Середина Рекомендации ЕС по этике в области искусственного интеллекта: контекст и реализация (europa.eu)