자율주행차(AV)의 개념은 도로에서 의사결정 자율성을 이전하는 윤리에 대한 오랫동안 논쟁을 불러일으켰습니다. 자동차 엔지니어 협회(Society of Automotive Engineers)는 AV 기능을 차별화하기 위해 업계 전반에 걸쳐 공식적으로 사용되는 6가지 수준의 자율성을 설정합니다.
레벨 0-2 AV는 이미 상용 시장에 존재합니다. 레벨 3은 능력의 첫 번째 중요한 도약입니다. 이는 짧은 기간 동안 자율 주행이 가능하지만 시스템이 요청할 경우 인간 운전자가 개입할 준비가 되어 있어야 하는 차량을 설명합니다. 레벨 4-5는 환경 감지 이상의 기능을 수행합니다. 여기에는 인간의 무시를 완전히 방지하는 최첨단 기술이 포함됩니다. 레벨 4 AV는 특정 조건에서 사람의 개입 없이 전체 여행을 완료할 수 있습니다. 레벨 5는 어떤 상황에서도 전체 여행을 완료할 수 있습니다. 예를 들어 레벨 5는 스티어링 휠이나 페달이 필요하지 않은 차량과 연결됩니다.
이 두 가지 상위 수준의 자율성을 둘러싸고 나타나는 도덕적, 윤리적 딜레마는 거의 모든 직접적인 의사 결정 권한의 상실로 인해 발생합니다. 핵심 기술의 올바른 기능, 인간의 생명과 원칙을 소중히 여기는 능력, 상충관계, 책임 등은 모두 윤리적, 법적 틀 모두에서 문제가 됩니다.
우리는 악명 높은 트롤리 문제부터 시작하여 이러한 문제를 탐구할 것입니다.
트롤리 문제는 미덕 윤리라고 불리는 철학 분야에서 만들어진 사고 실험으로, 예측 가능한 결과가 도덕적 수준에서 의도한 결과와 어떻게 비교되는지 논의합니다. 영국의 철학자 Philippa Foot(1967)이 고안한 주요 변형은 다음과 같습니다.
트롤리가 일련의 선로를 따라 통제할 수 없고 부러지지 않고 달리고 있습니다. 하지만 이 선로에는 5명이 묶여 있고, 트롤리가 그들에게 빠르게 접근하고 있습니다. 레버를 당기면 트롤리의 궤적이 다른 트랙 세트로 전환됩니다. 이 대체 트랙에는 단 한 사람만 묶여 있으므로 트롤리는 현재 5명을 죽일 것이지만, 행동을 취하면 단 한 명으로 줄어들 수 있습니다. 레버를 당기나요?
트롤리 문제는 다양한 윤리적 틀에서 볼 수 있습니다.
어떤 이념이든, 타인에 대한 피해를 최소화해야 하는 우리의 의무는 도덕적으로 올바른 행동을 선택해야 하는 우리의 의무와 직접적으로 충돌합니다. 자율주행차에 대해 많은 사람들이 의문을 제기하는 것은 이와 같은 결정과 상충관계를 소중히 여기는 능력입니다. 예를 들어 AV가 충돌할 경우 보행자/다른 차량보다 차량 승객이 우선시되어야 합니까?
하지만 자율주행 자동차의 윤리에서 고려해야 할 것은 어려운 결정을 내리는 능력뿐만이 아닙니다. 인간 스스로가 어떤 윤리적 틀이 트롤리 문제에 가장 잘 답할 것인지에 동의할 수 없다면, 하나의 이데올로기 하에서 이와 같은 절충점을 평가하기 위해 자율주행차를 어떻게 프로그래밍해야 할까요?
우리는 AI에 어떤 기본 가치와 원칙을 프로그래밍해야 합니까?
긍정적인 의무(구원된 생명 수), 아니면 부정적인 의무(활동 피해 최소화)에 우선순위를 두어야 할까요?
2018년 Uber는 애리조나에서 레벨 3 AV를 테스트하여 AV로 인해 발생한 최초의 비극적인 보행자 사망 사고를 초래했습니다. 레벨 3이기 때문에 차량에 백업 운전자가 있었지만 충분하지 않았습니다. 환경 감지 시스템이 장애물(여기서는 자전거를 타는 보행자)을 정확하게 식별하는 데 어려움을 겪고 있는 상황에서 자동차의 경고 시스템은 위험 가능성을 충분히 빠르게 인식하지 못했습니다. 백업 운전자가 마침내 제어권을 가지라는 경고를 받았을 때 차량은 이미 충돌에 0.2초가 걸렸으며 시속 39mph로 주행했습니다.
이 예에서는 AV 승객에 대한 직접적인 피해와 차량 외부의 보행자에 대한 직접적인 피해 사이의 균형을 반드시 논의하지는 않습니다. 왜냐하면 백업 운전자는 결코 자신에게 해를 끼칠 위험이 없었기 때문입니다. 그러나 우리가 AI 감각 감지에 의존할 수 있고 의존해야 하는지, 그리고 이러한 고압적이고 짧은 시간의 시나리오에서 수동 재정의가 가능한 백업인지 여부가 밝혀졌습니다.
또한 살인에 책임이 있는 도덕적 대리인의 부족으로 인해 자율성이 AV에 일시적으로 이전되는 문제도 강조합니다. 이 경우 Uber는 애리조나에서 테스트 중이던 90개 이상의 다른 레벨 3 AV를 철회하고 피해자 가족과 합의했습니다. 반면 백업 운전자는 과실치사 혐의로 기소됐다. 그녀에게 비난이 올바르게 전가되었습니까, 아니면 차량이어야 했습니까? 후자가 가능합니까?
유네스코는 AI 윤리적 프레임워크가 피해 방지와 인권 존중을 우선시해야 한다고 설명합니다. 안전과 차별 금지는 머신러닝 원칙을 뒷받침해야 합니다. 책임 있는 AI와 함께 인간의 감독, 통제 및 책임도 필수적인 것으로 간주되어야 합니다.
공정성과 '더 큰 이익을 위해'에 대한 추가 개념은 AI가 의사 결정을 위해 공리주의 이데올로기를 사용하기를 원한다는 것을 암시합니다. 반면에 '인권 존중'은 행위 자체의 도덕적 정당성, 즉 의무론과 관련이 있습니다.
물론 투명성은 AV가 결정을 어떻게 계산하는지 이해하는 데 있어서 가장 중요합니다. AV 사고 시 발생하거나 예방되는 피해를 평가하려면 기본 AI 기술이 어떻게, 왜 특정 결론에 도달하는지 이해해야 합니다. AV에 대한 대중의 신뢰에는 책임을 이해하고 올바른 프레임워크가 준수되는지 확인하는 것이 필요합니다.
유럽 의회 조사국(European Parliamentary Research Service)은 자동화된 의사 결정 AI를 개발하고 배포할 때 해결해야 하는 윤리적, 법적, 경제적 문제를 인식합니다. 여기에는 기본 알고리즘에서 윤리적 원칙을 개발하는 방법과 기하급수적인 AI 혁신 속도에 맞춰 글로벌 정책 및 규정을 최신 상태로 유지하는 방법에 대한 연구가 포함됩니다.
인권 측면에서는 '자동화된 처리에만 기반한 결정을 받지 않을 최종 사용자의 권리'를 보호하려는 연구 기관과 함께 인간 주체도 우선시됩니다. 기술 측면에서는 안전하고 안정적인 시스템을 보장하기 위해 사이버 보안 표준이 더욱 중요해질 것입니다. 윤리적인 AI에는 신뢰할 수 있는 소프트웨어가 필요합니다.
현재 영국의 도로에서 레벨 3+ AV를 사용하는 일반 대중이나 국내 시장에서 사용할 수 있는 차량은 없지만 BMW, Tesla, Mercedes와 같은 업계 주요 업체는 기술을 사용하여 2025년까지 이를 출시하는 것을 목표로 하고 있습니다. Traffic Jam Pilot처럼 그렇게 할 수 있습니다.
AV가 올바른 의사 결정 윤리를 갖추면 큰 이점을 얻을 수 있습니다. 일부 추정에서는 도로에서의 교통 관련 사고가 90% 감소할 것으로 예상합니다. 그럼에도 불구하고 AV를 뒷받침하는 기술과 관련하여 결정을 내려야 하는 방법과 우선 순위를 절충하는 방법을 설명하는 정량화 가능한 윤리적, 법적 프레임워크가 아직 없다는 것은 분명합니다.
따라서 AV 플레이어는 '피해 최소화'가 무엇을 의미하는지, 그리고 어떤 윤리적 이념이 의사 결정을 좌우해야 하는지에 대해 추가로 설명해야 합니다. 2018년 우버 사고에서 보았듯이 책임 소재와 주체도 명확히 밝혀야 할 것이다. 이 모든 것, 처리 방법, 우리가 진행하는 방향은 사회에 장기적인 윤리적 영향을 미칠 것입니다.