人工知能 (AI ) は、生活の多くの領域で変革をもたらす力として発展を続けており、すでに産業に革命を起こし、私たちの生活や仕事の仕方を変え始めています。戦争における AI というテーマは、政府、政策立案者、国際機関の注目をますます集めることになります。その大きな要因は、戦場で人間の監視なしに独立して作動するアルゴリズムを使用する自律型兵器システム (AWS) の開発が大きく進歩したことです。より広い意味では、さまざまな形態の AI は、ロボット工学や兵器から情報収集や意思決定まで、さまざまな軍事活動を強化する可能性があります。
このように多様な潜在的用途には、独特の倫理的ジレンマが伴います。戦争における AI の利点は、精度の向上、人的被害の減少、さらには核戦争の脅威に似た武力紛争への介入を抑止することです。しかし、これは機械に生死に関わる慎重な決定を下す能力を与えることを意味し、責任の境界があいまいになり、戦争における道徳の基本原則に反する可能性があります。
ストックホルム国際平和研究所が概説しているように、AIは軍事戦略と予算の重要な部分となり、より広範な「軍拡競争」に貢献しています[1]。したがって、核や原子の脅威などと相まって、地政学はテクノロジーの継続的な兵器化の倫理性を問わなければなりません。これらの進歩は最終的にゼロサム思考が世界政治を支配することにつながると考える人もいます。この論理は新しいものではありません。アルフレッド・ノーベルはダイナマイトの破壊力によってすべての戦争が終わることを望みました[2]。
AIはすでにドローン群、誘導ミサイル、兵站分析などの戦争技術に組み込まれ始めています。自律システムは、対車両地雷や対人地雷など、防衛兵器にさらに以前から組み込まれています。今後の開発では、自律性のレベルをさらに高めることを目指します。米国は、F-16戦闘機の改造版を自律飛行できるAIボットをテストしています。ロシアは自律戦車をテストしており、中国も独自のAI搭載兵器を開発しています[3]。
目標は、戦場の機械化と自動化を継続することで人命を守ることです。「ドローンの数が軍隊の人員を大幅に上回る未来は容易に想像できます[3]」と核脅威イニシアチブの上級顧問ダグラス・ショーは述べています。つまり、兵士を地上に配備する代わりに、飛行機に乗せてミサイルで武装させることで人命を救ったのです。現在、軍隊はAIを活用して、さらに多くの人命を軍隊の力で救うことを望んでいます。
ここまでは素晴らしい話だ。AI を使ってドローンを操縦し、命を救う。AI を使ってミサイルを発射し、命を救う。戦争におけるこの技術の飛躍と過去のイノベーションの違いは、意思決定に人間の介入がないことだ。AWS と自律型致死兵器システム (LAWS) によって、私たちは人間を殺す権限を、直感的な人間性を持たないアルゴリズムに委ねているのだ。
ここではいくつかの倫理的、道徳的、法的問題が生じます。
戦争で、その行為の相手側に人間がいなくても、人間の命が奪われるのは公平でしょうか? LAWS のアルゴリズムのプログラマーは、戦闘機パイロットとして国を代表するのと同じ責任、および/または敵の命を奪うことに貢献する同じ権利を持っているのでしょうか?
自動運転車をめぐる倫理的ジレンマ[4]と同様に、生死に関わる決定をAI搭載アルゴリズムに委ねることは道徳的に正当化できるのでしょうか?技術的な観点から見ると、これはAWSのプログラミングの透明性、つまりこれらのモデルにおけるトレーニング、使用されるデータセット、コード化された好み、バイアスなどのエラーに部分的に依存することになります。たとえ十分なレベルの精度と透明性が達成されたとしても、AWSとLAWSは戦争において道徳的であると考えられるべきでしょうか?
13世紀に聖アウグスティヌスとトマス・アクィナスが提唱したとされる正戦理論[5]は、戦争の道徳性と武力紛争における倫理的意思決定を評価するものである。戦争の正義( jus ad bellum )と戦争における正義( jus in bello )のガイドライン全体を通じて、最も注目すべき考慮事項は以下のとおりである。
AI 搭載兵器や LAWS の使用は、これらの条約の遵守を保証するものではないと主張することもできます。
比例性に関して言えば、AI 支援兵器は、これまでよりも高速、強力、かつ正確に武力を行使する能力を持つことになります。このレベルの武力は、特に技術的に進歩していない兵器を持つ国に対して使用された場合、脅威や軍事目標に必ず一致するのでしょうか。同様に、LAWS に誤った情報が与えられたり、幻覚を起こして不正確な予測を作成したりした場合はどうなるでしょうか。これは、不必要な軍事力の形成と実行や不均衡な行動につながる可能性があります。
差別という点では、これらの技術は100%正確ではありません。敵軍にミサイルを発射する際、顔認識[6]技術で民間人と戦闘員を区別できなかったらどうなるでしょうか。これは、正当な軍事目標と罪のない傍観者との間の道徳的な区別を損なうことになります。
国連専門家パネルは、トルコ軍がハフタル連合軍(HAF)に対して配備したLAWS(STMカルグ2)が2020年にリビアで使用された可能性があると報告した[7]。「オペレーターと弾薬間のデータ接続を必要とせずに標的を攻撃するようにプログラムされている」[8]と説明されているこのドローンユニットは、最終的に電子妨害によって無力化された。しかし、この遠隔航空技術の関与により、それまで「犠牲者の回避と部隊の保護が双方にとって優先事項であった低強度、低技術の紛争」の流れが変わった[7]。
無人攻撃ドローンは多数の死傷者を出したが、死者が出たかどうかは明らかではない[8]。それでも、無人戦闘機やドローンの無規制使用の問題が浮き彫りになっている。
HAF部隊はこのような攻撃に対する防御訓練を受けておらず、(ドローンがオフラインであったにもかかわらず発生した)空中攻撃に対する防御もなく、撤退中もLAWSによる嫌がらせを受け続けた。これだけでも比例性の原則に違反しているが、STMカルグ-2が紛争の力関係を変えたことを考慮すると、なおさらである。報告書は、「トルコが紛争に先進的な軍事技術を導入したことが、2020年にリビア西部でHAFの敗北をもたらした不均衡な消耗戦の決定的な要素であった」とさえ示唆している[7]。
2018年以来、国連事務総長のアントニオ・グテーレスは、LAWSは政治的にも道徳的にも受け入れられないと主張している[9]。2023年の平和のための新アジェンダでは、グテーレスはこれを2026年までに正式化し、実行するよう求めている。この中で、彼は、人間の監視なしに機能し、国際法に準拠していないAWSの使用と、その他すべてのAWSの規制を全面的に禁止することを提案している。
こうしたタイプの国際協力と規制は、これまで議論してきた倫理的懸念を克服するために必要となるでしょう。今のところ、人間の監視なしで AWS を使用すると、最も差し迫った問題が生じます。人間の意思決定者がいないと、責任の問題が生じます。指揮系統がなければ、AI 搭載システムの誤動作や一般的な誤りに対して誰が責任を負うのでしょうか?
さらに、説明責任がなくなることも考えられます。特に、正戦理論のような道徳原則が定義されている従来の戦争では、自律システムが行った行動に対して責任を負う主体は存在しません。
最後に、軍事用途での AI の導入が進むことにはメリットがある一方で、こうしたテクノロジーが最終的にどのように使用されるかによって、それがユートピア的な解決策になるのか、それともすでに政治的に不安定化している軍拡競争の激化につながるのかが決まります。
したがって、AI 戦争における説明責任を確保するための国際的かつ法的拘束力のある枠組みに関する継続的な議論は、近い将来、AI 規制の最も重要な分野の 1 つとなるだろう。