Trí tuệ nhân tạo (AI ) tiếp tục phát triển như một lực lượng biến đổi trên nhiều lĩnh vực của cuộc sống, bắt đầu cách mạng hóa các ngành công nghiệp và định hình lại cách chúng ta sống và làm việc. Chủ đề về AI trong chiến tranh sẽ đòi hỏi sự quan tâm ngày càng tăng của các chính phủ, các nhà hoạch định chính sách và các tổ chức quốc tế. Phần lớn điều này là do những tiến bộ đáng kể trong việc phát triển hệ thống vũ khí tự động (AWS), sử dụng thuật toán để hoạt động độc lập và không có sự giám sát của con người trên chiến trường. Nhìn rộng hơn, AI dưới nhiều hình thức có tiềm năng tăng cường một loạt hoạt động quân sự, từ robot và vũ khí đến thu thập thông tin tình báo và ra quyết định.
Với sự đa dạng của các ứng dụng tiềm năng như vậy xuất hiện một loạt các tình huống khó xử về mặt đạo đức. Lợi ích của AI trong chiến tranh là tăng độ chính xác, giảm thương vong cho con người và thậm chí ngăn chặn việc tham gia vào xung đột vũ trang ngay từ đầu giống như mối đe dọa chiến tranh hạt nhân. Tuy nhiên, điều này có nghĩa là trao cho máy móc khả năng đưa ra các quyết định sinh tử có chủ ý, xóa mờ ranh giới trách nhiệm và có thể đi ngược lại các nguyên tắc cơ bản về đạo đức trong chiến tranh.
Như Viện Nghiên cứu Hòa bình Quốc tế Stockholm đã chỉ ra, AI đã trở thành một phần quan trọng trong chiến lược và ngân sách quân sự, góp phần vào 'cuộc chạy đua vũ trang' rộng hơn[1]. Kết hợp với những mối đe dọa hạt nhân và nguyên tử, địa chính trị do đó phải đặt câu hỏi về đạo đức của việc tiếp tục vũ khí hóa công nghệ. Một số người tin rằng những tiến bộ này cuối cùng sẽ dẫn tới lối suy nghĩ có tổng bằng 0 thống trị nền chính trị thế giới. Logic này không mới; Alfred Nobel hy vọng sức tàn phá của thuốc nổ sẽ chấm dứt mọi cuộc chiến tranh[2].
AI đã bắt đầu được tích hợp vào công nghệ chiến tranh như trong các đàn máy bay không người lái, tên lửa dẫn đường và phân tích hậu cần. Các hệ thống tự động đã được tích hợp vào vũ khí phòng thủ thậm chí còn lâu hơn nữa, ví dụ như mìn chống xe cộ và mìn sát thương. Sự phát triển trong tương lai sẽ tiếp tục mong muốn tăng mức độ tự chủ. Mỹ đang thử nghiệm các robot AI có thể tự lái một phiên bản sửa đổi của máy bay chiến đấu F-16; Nga đang thử nghiệm xe tăng tự động; và Trung Quốc cũng đang phát triển vũ khí hỗ trợ AI của riêng mình[3].
Mục tiêu là bảo vệ tính mạng con người bằng cách tiếp tục cơ giới hóa và tự động hóa chiến trường. Douglas Shaw, cố vấn cấp cao của Sáng kiến Đe dọa Hạt nhân cho biết: “Tôi có thể dễ dàng tưởng tượng ra một tương lai trong đó số lượng máy bay không người lái đông hơn đáng kể số người trong lực lượng vũ trang”. Vì vậy, thay vì triển khai binh lính trên mặt đất, chúng tôi đã cứu mạng sống bằng cách đưa họ lên máy bay và trang bị tên lửa cho họ. Giờ đây với AI, quân đội hy vọng sẽ cứu được nhiều mạng sống con người hơn nữa từ lực lượng của mình.
Điều này nghe có vẻ tuyệt vời cho đến nay. Cứu mạng sống bằng cách sử dụng AI để điều khiển máy bay không người lái. Cứu mạng bằng cách sử dụng AI để phóng tên lửa. Sự khác biệt giữa bước nhảy vọt về công nghệ trong chiến tranh và những đổi mới trong quá khứ là thiếu sự tham gia của con người trong quá trình ra quyết định. Với AWS và hệ thống vũ khí tự động gây chết người (LAWS), chúng tôi đang trao quyền giết người cho một thuật toán không có tính trực giác của con người.
Một số vấn đề đạo đức, đạo đức và pháp lý phát sinh ở đây.
Có công bằng không khi mạng sống con người được thực hiện trong chiến tranh mà không có một người nào khác ở phía bên kia hành động đó? Người lập trình thuật toán trong LUẬT có trách nhiệm tương tự trong việc đại diện cho đất nước của họ với tư cách là một phi công chiến đấu và/hoặc có cùng quyền góp phần lấy mạng kẻ thù không?
Giống như những tình huống khó xử về mặt đạo đức xung quanh các phương tiện tự hành[4], việc giao các quyết định sinh tử cho các thuật toán do AI cung cấp có hợp lý về mặt đạo đức không? Từ quan điểm công nghệ, điều này sẽ phụ thuộc một phần vào tính minh bạch của quá trình lập trình AWS: đào tạo, bộ dữ liệu được sử dụng, tùy chọn được mã hóa và các lỗi như sai lệch trong các mô hình này. Ngay cả khi chúng tôi đạt đến mức độ chính xác và minh bạch phù hợp, AWS và LAWS có nên được coi là đạo đức trong chiến tranh không?
Lý thuyết Chiến tranh Chính nghĩa, được ghi công bởi St Augustine và Thomas Aquinas vào thế kỷ 13[5], đánh giá tính đạo đức của chiến tranh và việc ra quyết định có tính đạo đức trong xung đột vũ trang. Xuyên suốt các hướng dẫn về jus ad bellum (công lý chiến tranh) và jus in bello (công lý trong chiến tranh), những cân nhắc đáng chú ý nhất là:
Có thể lập luận rằng việc sử dụng vũ khí hỗ trợ AI và LUẬT không đảm bảo việc tuân thủ các công ước này.
Về tỷ lệ, vũ khí được hỗ trợ bởi AI sẽ sở hữu khả năng cung cấp lực với tốc độ, sức mạnh và độ chính xác cao hơn bao giờ hết. Liệu mức độ lực lượng này có nhất thiết phải phù hợp với mối đe dọa đặt ra/mục tiêu quân sự, đặc biệt nếu được sử dụng để chống lại một quốc gia có vũ khí kém tiên tiến hơn về công nghệ? Tương tự, điều gì sẽ xảy ra nếu LUẬT được cung cấp thông tin sai lệch hoặc gây ảo giác và tạo ra dự đoán không chính xác? Điều này có thể dẫn đến việc hình thành và thực hiện lực lượng quân sự không cần thiết cũng như những hành động không cân xứng.
Về mặt phân biệt đối xử, những công nghệ này không chính xác 100%. Khi bắn tên lửa vào lực lượng địch, điều gì sẽ xảy ra nếu công nghệ nhận dạng khuôn mặt[6] không thể phân biệt dân thường với chiến binh? Điều này sẽ làm xói mòn sự phân biệt về mặt đạo đức giữa các mục tiêu quân sự hợp pháp và những người ngoài cuộc vô tội.
Một nhóm chuyên gia của Liên hợp quốc đã báo cáo về khả năng sử dụng LUẬT - STM Kargu-2 - ở Libya vào năm 2020, do quân đội Thổ Nhĩ Kỳ triển khai để chống lại Lực lượng liên kết Haftar (HAF)[7]. Được mô tả là “được lập trình để tấn công các mục tiêu mà không yêu cầu kết nối dữ liệu giữa người điều khiển và đạn dược” [8], các đơn vị máy bay không người lái cuối cùng đã bị vô hiệu hóa bằng cách gây nhiễu điện tử. Tuy nhiên, sự tham gia của công nghệ không khí từ xa này đã thay đổi cục diện của những gì trước đây là “xung đột cường độ thấp, công nghệ thấp, trong đó việc tránh thương vong và bảo vệ lực lượng là ưu tiên hàng đầu của cả hai bên”[7].
Mặc dù gây ra thương vong đáng kể nhưng vẫn chưa rõ liệu máy bay không người lái tấn công có gây ra trường hợp tử vong nào hay không [8]. Tuy nhiên, nó nhấn mạnh các vấn đề với việc sử dụng máy bay chiến đấu và máy bay không người lái không được kiểm soát, không có người lái.
Các đơn vị HAF không được huấn luyện để chống lại hình thức tấn công này, không được bảo vệ khỏi các cuộc tấn công trên không (xảy ra mặc dù máy bay không người lái đang ngoại tuyến) và ngay cả khi rút lui vẫn tiếp tục bị LUẬT quấy rối. Chỉ riêng điều này đã bắt đầu vi phạm nguyên tắc cân xứng, và thậm chí còn hơn thế nữa khi cho rằng STM Kargu-2 đã thay đổi động lực của cuộc xung đột. Các báo cáo đi xa hơn khi gợi ý rằng “việc Thổ Nhĩ Kỳ đưa công nghệ quân sự tiên tiến vào cuộc xung đột là yếu tố quyết định trong… cuộc chiến tiêu hao không đồng đều dẫn đến thất bại của HAF ở miền tây Libya trong năm 2020”[7].
Kể từ năm 2018, Tổng thư ký LHQ António Guterres đã khẳng định rằng LUẬT là không thể chấp nhận được cả về mặt chính trị và đạo đức[9]. Trong Chương trình nghị sự vì hòa bình mới năm 2023, Guterres đã kêu gọi chính thức hóa và thực hiện điều này vào năm 2026. Theo đó, ông đề xuất lệnh cấm hoàn toàn việc sử dụng AWS vốn hoạt động mà không có sự giám sát của con người và không tuân thủ luật pháp quốc tế cũng như quy định của tất cả AWS khác.
Loại hình hợp tác và quy định quốc tế này sẽ cần thiết để giúp khắc phục những lo ngại về đạo đức mà chúng ta đã thảo luận. Hiện tại, việc sử dụng AWS mà không có sự giám sát của con người sẽ gây ra những vấn đề cấp bách nhất. Việc thiếu người ra quyết định là con người tạo ra các vấn đề về trách nhiệm. Nếu không có một chuỗi mệnh lệnh, ai sẽ chịu trách nhiệm về sự cố hoặc sai sót chung của hệ thống do AI hỗ trợ?
Hơn nữa, sẽ có sự thiếu trách nhiệm sau đó. Đặc biệt là trong chiến tranh truyền thống, nơi có các nguyên tắc đạo đức được xác định như Lý thuyết Chiến tranh Chính nghĩa, ở đây sẽ không có tác nhân đáng trách nào cho các hành động được thực hiện bởi các hệ thống tự trị.
Cuối cùng, mặc dù việc ngày càng áp dụng AI trong các ứng dụng quân sự mang lại nhiều lợi ích, nhưng cách thức sử dụng những công nghệ này sẽ quyết định liệu nó có trở thành một giải pháp không tưởng hay sự gia tăng của cuộc chạy đua vũ trang vốn đã gây bất ổn về mặt chính trị.
Do đó, việc tiếp tục thảo luận xung quanh các khuôn khổ ràng buộc về mặt pháp lý, quốc tế để đảm bảo trách nhiệm giải trình trong chiến tranh AI sẽ được cho là một trong những lĩnh vực quan trọng nhất của quy định về AI trong tương lai gần.