I uncover strategies & tech that help my readers stand out, sharing these insights through my writing at HackerNoon.
This story contains new, firsthand information uncovered by the writer.
The writer is smart, but don't just like, take their word for it. #DoYourOwnResearch
世界の軍事インフラは、大きな変化と高い技術開発率を経験しています。アメリカ大統領のジョー・バイデンが言ったとき、
「今後 10 年間で、過去 50 年間に見られたよりも多くの技術的変化が見られるでしょう。」
彼は露骨に明白なことに言及していました。人工知能は現在急速に発展しており、軍隊での使用により、戦闘のやり方が大きく変わりました。以前は SF として考えられていたことが、今では解明されていない現実です。この技術分野は、ドローンや自律兵器から意思決定アルゴリズムや監視システムに至るまで、あらゆるものを変えています。
Google China の元社長兼 Sinovation Ventures の CEO である Kai-Fu Lee 氏は、著書「AI 2041: 私たちの未来のための 10 のビジョン」で次のように述べています。
「自律型兵器は、火薬と核兵器に続く、戦争における第 3 の革命です。」
彼の言葉では、
「地雷から誘導ミサイルへの進化は、真の AI 対応の自律性への序曲にすぎませんでした。完全な殺害の関与です。別の人間の命を探し、関与することを決定し、完全に人間の関与なしに抹消します。」
戦争における AI の利点は否定できませんが、この技術が将来の軍事紛争に与える影響については、倫理的な懸念や疑問もありますが、まず、これまでの進歩を詳しく見てみましょう。
によると
現在、AI 戦争における最も重要な進歩の 1 つは、しばしばドローンと呼ばれる無人航空機 (UAV) の使用です。これらの車両は、偵察、情報収集、および標的を絞った攻撃のための軍事作戦で広く使用されています。
の最近のエスカレーション中に、
ロシアとウクライナの間の継続的な紛争は、戦闘における AI 搭載ドローンのこれまで見られなかった用途も明らかにしました。その間
数年前、AI を搭載したドローン (スローターボットと呼ばれる) ができることを示す短いディストピア映画が、Future of Life Institute の Web サイトで共有されました。当時、それらは単なる予測でした。しかし今日、「キラーボット」と呼ばれることもあるこれらの致命的な AI 強化自律兵器が戦場で使用されています。
の
近年、ドローン技術はより高度になり、リアルタイムのデータ分析に基づいて意思決定を行う AI アルゴリズムが使用されています。 Omnipresent Robot Technologies の CTO である Jyoti Sinha 氏は次のように述べています。
「戦術戦では、AI を搭載したスウォーム ドローンは、正確なスウォーム コンフィギュレーションとホバー ローカリゼーションを使用して、複数のターゲットを同時に破壊および解体できます。誘導型の防衛装備ではあまり洗練されていない場合でも…敵の最前線をターゲットにしている間、たとえ一部のドローンが攻撃を受けると、コグニティブ AI アルゴリズムが作動し、ドローン ネットワークのポジショニングを再構成して、状況認識を維持し、ミッションの完了を支援します。」
これらの AI 対応自律兵器の例としては、武力攻撃と諜報、監視、偵察 (ISR) の両方の機能を備えたトルコ製のバイラックタル TB2 があります。
バイラックタル TB2
カラシニコフのザラ・ランセット
ボーイングはまた、2020年に、戦闘機のような有人航空機と並んでもちろん自律的に飛行して戦うように設計された最初の忠実なウィングマン航空機と呼ばれるものを発表しました.その名前、ロイヤル ウィングマンは、同社が「忠実な同盟国」と表現したことに由来しています。
軍事技術への人工知能の適用におけるこれらの開発には利点がありますが、軍事作戦に対する制御の喪失につながり、予期しない影響を与える可能性があるという懸念があります。
軍事技術の分野で記録された急速な進歩は、戦争と戦争以外の両方での応用について倫理的な問題を引き起こします。例えば、
これらのシステムの説明責任の問題に加えて、AI システムが誤動作したり侵害されたりして、望ましくない結果や悲惨な結果をもたらす可能性も、最大の懸念事項の 1 つです。 .
「人工知能と自律性の責任ある軍事利用に関する政治宣言」と題する最近の文書で、米国国務省は AI を開発している国々に対し、道徳的かつ責任を持って受け入れられる方法で軍事作戦にテクノロジーを採用するよう求めました。
米国政府は、軍隊で人工知能 (AI) を使用することは、倫理的で責任があり、世界的なセキュリティを強化することができ、またそうすべきであることに同意すると主張しているため、独自の枠組みを提示し、他の国々に同意への参加を呼びかけています。
しかし、宣言にどのような種類の自律システムまたは AI 搭載システムが含まれているかが正確に不明であるため、軍事技術を道徳の範囲内に保つために声明がどこまで進むことができるかについて懸念が提起されています。
もう 1 つの懸念は、戦場での意思決定における人間の役割と、AI が戦争を非人間化し、より破壊的なものにする可能性です。国連のアントニオ・グテーレス事務総長によると、機械が人の命を奪う自由と能力を持っているという考えは、道徳的に忌まわしいものです。で
「新技術が戦争に与える影響は、平和と安全を保証するという私たちの共通の責任に対する直接的な脅威です。」
4 年後の 2022 年 2 月にロシアがウクライナに侵攻した後、恐怖が現実のものとなり、そのような予言の成就が忍び寄り始めていることがわかります。
たとえば、ロシアは、ロシア製のような「徘徊弾薬」を利用してきました
グテーレス氏は、そのような軍需品の監視が少ないことは、脅威を軽減し、エスカレーションを防ぎ、国際人道法と人権法を支持する試みを危険にさらすため、大きな課題をもたらすと考えています.で
「致命的な自律兵器は、戦争における第三の革命になる恐れがあります。それらが発展すれば、これまで以上に大規模で、人間が理解できるよりも速い時間スケールで武力紛争が行われるようになるでしょう。これらは、恐怖の武器、専制君主やテロリストが罪のない人々に対して使用する武器、望ましくない方法で動作するようにハッキングされた武器である可能性があります.行動するのに時間はかかりません。このパンドラの箱は一度開けるとなかなか閉まらない。」
前述の懸念に加えて、近い将来、AI 技術が世界の政治と地政学的安定にどのような影響を与えるかは不明です。しかし、軍事技術の発展によると、
人工知能に関する国家安全保障委員会のグローバル新興技術サミットに出席している間、米国国防長官のロイド J. オースティンは
「AI は私たちのイノベーション アジェンダの中心であり、より高速な計算、より良い共有、および他のプラットフォームの活用を支援してくれます。そして、それは未来の戦いの基本です。」
米国国防総省は、AI の採用を加速するために、今後 5 年間で推定 15 億ドルを投資すると述べました。
一方、ロシアは AI を国家的優先事項と宣言し、AI アプリケーションを開発および展開するためのいくつかのイニシアチブを開始しました。ロシアのウラジミール・プーチン大統領は、ライブビデオを通じて次のように述べています。
「人工知能は、ロシアだけでなく全人類の未来であり、この分野のリーダーになる人は誰でも、世界の支配者になるでしょう。」
ロシアは、米国や中国よりも防衛費を支出していませんが、
誰が AI の軍拡競争に勝つかについてはさまざまな意見や予測がありますが、最終的には、戦争に適用される AI の将来も、一般的に明確に予測することはできません。しかし、サイエンス フィクションと実際の現実の区別が薄れ始めている可能性があります。