인공 지능(AI )은 삶의 여러 영역에 걸쳐 변화를 일으키는 힘으로 계속 발전하고 있으며, 이미 산업에 혁명을 일으키고 우리가 살고 일하는 방식을 재편하기 시작했습니다. 전쟁에서 AI라는 주제는 정부, 정책 입안자, 국제기구의 관심을 높여야 할 것입니다. 그 중 상당 부분은 알고리즘을 사용하여 전장에서 사람의 감독 없이 독립적으로 작동하는 자율 무기 시스템(AWS) 개발이 크게 발전했기 때문입니다. 보다 광범위하게, 다양한 형태의 AI는 로봇 공학, 무기에서부터 정보 수집 및 의사 결정에 이르기까지 다양한 군사 활동을 향상시킬 수 있는 잠재력을 가지고 있습니다.
이러한 다양한 잠재적 응용으로 인해 독특한 윤리적 딜레마가 발생합니다. 전쟁에서 AI의 이점은 정확성 향상, 인명 피해 감소, 심지어 핵전쟁 위협과 유사한 무력 충돌에 대한 억제력까지 들 수 있습니다. 그러나 이는 기계에 신중한 생사 결정을 내릴 수 있는 능력을 부여하고, 책임의 경계를 모호하게 하며, 전쟁에서 도덕성의 기본 원칙에 어긋날 수도 있음을 의미합니다.
스톡홀름 국제 평화 연구소(Stockholm International Peace Research Institute)가 설명했듯이 AI는 군사 전략과 예산의 중요한 부분이 되었으며 더 넓은 '군비 경쟁'에 기여했습니다[1]. 따라서 지정학은 핵 및 원자 위협과 결합하여 지속적인 기술 무기화의 윤리에 의문을 제기해야 합니다. 일부 사람들은 이러한 발전이 궁극적으로 세계 정치를 지배하는 제로섬 사고로 이어질 것이라고 믿습니다. 이 논리는 새로운 것이 아닙니다. 알프레드 노벨(Alfred Nobel)은 다이너마이트의 파괴적인 힘이 모든 전쟁을 종식시킬 수 있기를 바랐습니다[2].
AI는 이미 드론 군집, 유도 미사일, 군수 분석 등 전쟁 기술에 통합되기 시작했습니다. 자율 시스템은 대차량 및 대인 지뢰와 같이 훨씬 더 오랫동안 방어 무기에 통합되었습니다. 향후 개발은 계속해서 자율성 수준을 높이려는 열망을 가질 것입니다. 미국은 F-16 전투기의 개조 버전을 자체 비행할 수 있는 AI 로봇을 테스트하고 있습니다. 러시아는 자율형 탱크를 시험하고 있다. 중국 역시 자체 AI 기반 무기를 개발하고 있습니다[3].
전장의 기계화, 자동화를 지속적으로 진행하여 인간의 생명을 보호하는 것이 목표입니다. 핵 위협 이니셔티브(Nuclear Threat Initiative)의 수석 고문인 더글러스 쇼(Douglas Shaw)는 "드론이 군대에 있는 사람보다 훨씬 더 많은 미래를 쉽게 상상할 수 있습니다.[3]"라고 말했습니다. 그래서 군인들을 지상에 배치하는 대신 우리는 그들을 비행기에 태우고 미사일로 무장시켜 생명을 구했습니다. 이제 군대는 AI를 통해 군대로부터 더 많은 인명을 구하기를 희망합니다.
지금까지는 아주 좋은 것 같습니다. AI를 사용해 드론을 조종해 생명을 구하세요. AI를 사용해 미사일을 발사해 생명을 구하세요. 전쟁에서의 이러한 기술적 도약과 과거 혁신의 차이점은 의사 결정에 인간의 개입이 부족하다는 것입니다. AWS와 치명적인 자율 무기 시스템(LAWS)을 통해 우리는 인간을 죽일 수 있는 권한을 직관적인 인간성이 없는 알고리즘에 넘겨주고 있습니다.
여기에서 몇 가지 윤리적, 도덕적, 법적 문제가 발생합니다.
다른 인간이 그 행동의 반대편에 있지 않은 상태에서 전쟁에서 인간의 생명을 빼앗아야 하는 것이 공평합니까? LAWS의 알고리즘 프로그래머는 전투기 조종사로서 자국을 대표하는 것과 동일한 책임을 갖고/또는 적의 생명을 빼앗는 데 기여할 동일한 권리를 갖습니까?
자율주행차를 둘러싼 윤리적 딜레마와 마찬가지로[4] 생사의 결정을 AI 기반 알고리즘에 위임하는 것이 도덕적으로 정당합니까? 기술적인 관점에서 이는 부분적으로 AWS 프로그래밍의 투명성(교육, 사용된 데이터세트, 코딩된 선호도, 이러한 모델의 편향과 같은 오류)에 따라 달라집니다. 적절한 수준의 정확성과 투명성에 도달하더라도 AWS와 LAWS는 전쟁에서 도덕적인 것으로 간주되어야 합니까?
13세기 성 어거스틴과 토마스 아퀴나스가 창시한 정당한 전쟁 이론[5]은 무력 충돌 시 전쟁의 도덕성과 윤리적 의사결정을 평가합니다. jus ad bellum (전쟁의 정의) 및 jus in bello (전쟁의 정의)에 대한 지침 전체에서 가장 주목할만한 고려 사항은 다음과 같습니다.
AI 기반 무기와 LAWS의 사용이 이러한 규칙의 준수를 보장하지 않는다는 주장이 있을 수 있습니다.
비례적으로 AI 지원 무기는 이전보다 더 빠른 속도, 힘, 정밀도로 힘을 전달할 수 있는 능력을 보유하게 될 것입니다. 이러한 수준의 군사력이 위협/군사적 목표와 필연적으로 일치합니까? 특히 기술적으로 덜 발전된 무기를 보유한 국가에 대해 사용되는 경우에는 더욱 그렇습니다. 마찬가지로, LAWS에 잘못된 정보가 제공되거나 환각을 느끼고 부정확한 예측을 생성한다면 어떻게 될까요? 이는 불필요한 군사력의 형성과 집행, 불균형적인 행동으로 이어질 수 있다.
차별이라는 측면에서 이러한 기술은 100% 정확하지 않습니다. 적군에게 미사일을 발사할 때 안면인식[6] 기술로 민간인과 전투원을 구별할 수 없다면 어떻게 될까요? 이는 합법적인 군사 표적과 무고한 방관자 사이의 도덕적 구별을 약화시킬 것입니다.
UN 전문가 패널은 2020년 리비아에서 Haftar Affiliated Forces(HAF)에 맞서 터키군이 배치한 LAWS(STM Kargu-2)의 사용 가능성을 보고했습니다. "조작자와 군수품 사이의 데이터 연결 없이 목표물을 공격하도록 프로그래밍되어 있다"고 설명된 드론 유닛은 결국 전자 전파 방해로 무력화되었습니다. 그러나 이 원격 항공 기술의 참여는 이전에 "사상자 방지와 병력 보호가 양측 모두에게 우선순위인 저강도, 저기술 충돌"의 흐름을 바꾸었습니다[7].
무인 공격 드론으로 인해 상당한 사상자가 발생한 반면, 사망자가 발생했는지 여부는 확실하지 않습니다[8]. 그럼에도 불구하고 이는 전투용 항공기와 드론의 규제되지 않은 무인 사용과 관련된 문제를 강조합니다.
HAF 부대는 이러한 형태의 공격을 방어하도록 훈련받지 않았고 공중 공격(드론이 오프라인임에도 불구하고 발생)으로부터 보호받지 못했으며 후퇴 중에도 LAWS의 괴롭힘을 계속 받았습니다. 이것만으로도 비례의 원칙을 위반하기 시작하며, STM Kargu-2가 갈등의 역학을 변화시켰다는 점을 고려하면 더욱 그렇습니다. 보고에 따르면 "터키가 분쟁에 첨단 군사 기술을 도입한 것은 2020년 리비아 서부에서 HAF의 패배를 초래한 고르지 못한 소모전에서 결정적인 요소였습니다"[7].
2018년부터 안토니오 구테헤스 유엔 사무총장은 LAWS가 정치적으로나 도덕적으로 용납될 수 없다고 주장해 왔습니다[9]. Guterres는 2023년 평화를 위한 새로운 어젠다에서 이를 공식화하고 2026년까지 조치를 취할 것을 촉구했습니다. 이에 따라 그는 인간의 감독 없이 작동하고 국제법 및 규제를 준수하지 않는 AWS 사용을 완전히 금지할 것을 제안합니다. 다른 모든 AWS.
이러한 유형의 국제 협력과 규제는 우리가 논의한 윤리적 문제를 극복하는 데 필요할 것입니다. 현재로서는 인간의 감독 없이 AWS를 사용하면 가장 즉각적인 문제가 발생할 것입니다. 인간의 의사결정자가 없기 때문에 책임 문제가 발생합니다. AI 기반 시스템의 오작동이나 일반적인 오류에 대해 책임을 지는 명령 체계가 없다면?
게다가 책임감도 부족할 것이다. 특히 정의로운 전쟁 이론과 같은 도덕적 원칙이 정의된 전통적인 전쟁에서는 자율 시스템이 취하는 행동에 대해 책임 있는 행위자가 없을 것입니다.
마지막으로, 군사 응용 분야에서 AI를 점점 더 많이 채택하면 이점이 있지만, 이러한 기술이 결국 어떻게 사용되는지에 따라 그것이 유토피아적 솔루션이 될지 아니면 이미 정치적으로 불안정한 군비 경쟁의 확산이 될지 여부가 결정됩니다.
따라서 AI 전쟁의 책임성을 보장하기 위한 국제적이고 법적 구속력이 있는 프레임워크에 대한 지속적인 논의는 가까운 미래에 AI 규제의 가장 중요한 영역 중 하나가 될 것입니다.