paint-brush
Modern Savaşta Yapay Zeka Etiği: İnovasyonu Ahlaki Sorumlulukla Dengelemekile@nimit
12,710 okumalar
12,710 okumalar

Modern Savaşta Yapay Zeka Etiği: İnovasyonu Ahlaki Sorumlulukla Dengelemek

ile Nimit6m2024/04/06
Read on Terminal Reader

Çok uzun; Okumak

Bu makale, otonom silah sistemlerinin etkilerini ve bunların askeri stratejiler üzerindeki etkisini inceleyerek yapay zekanın savaşta kullanımının ortaya çıkardığı etik ikilemleri ele alıyor. Artan hassasiyetin ve azalan insan kayıplarının faydalarını, ölüm kalım kararlarını makinelere devretmenin ahlaki kaygıları ve Adil Savaş Teorisi ilkelerine bağlı kalmanın zorluklarıyla karşılaştırıyor. Makalede ayrıca yapay zeka destekli askeri uygulamalarda düzenleme ve hesap verebilirliğe yönelik uluslararası çabalar da tartışılıyor.
featured image - Modern Savaşta Yapay Zeka Etiği: İnovasyonu Ahlaki Sorumlulukla Dengelemek
Nimit HackerNoon profile picture
0-item

Yapay Zeka (AI ), yaşamın birçok alanında dönüştürücü bir güç olarak gelişmeye devam ediyor; halihazırda endüstrilerde devrim yaratmaya ve yaşama ve çalışma şeklimizi yeniden şekillendirmeye başlıyor. Savaşta yapay zeka konusu hükümetlerin, politika yapıcıların ve uluslararası kuruluşların artan ilgisini gerektirecektir. Bunun büyük bir kısmı, savaş alanında bağımsız olarak ve insan denetimi olmadan çalışmak için algoritmalar kullanan otonom silah sistemlerinin (AWS) geliştirilmesindeki önemli ilerlemelerden kaynaklanmaktadır. Daha genel anlamda, yapay zeka, birçok biçimiyle, robotik ve silahlardan istihbarat toplama ve karar almaya kadar çeşitli askeri faaliyetleri geliştirme potansiyeline sahiptir.


Potansiyel uygulamaların bu kadar çeşitliliği benzersiz bir dizi etik ikilemi de beraberinde getiriyor. Yapay zekanın savaştaki faydaları, hassasiyetin artması, insan kayıplarının azalması ve hatta nükleer savaş tehdidine benzer şekilde ilk etapta silahlı çatışmaya girmenin caydırılmasıdır. Ancak bu, makinelere kasıtlı ölüm-kalım kararları verme yeteneği vermek, sorumluluk sınırlarını bulanıklaştırmak ve muhtemelen savaşta ahlakın temel ilkelerine aykırı olmak anlamına gelecektir.


Savaşta Yapay Zekaya Kısa Bir Bakış

Stockholm Uluslararası Barış Araştırma Enstitüsü'nün de belirttiği gibi yapay zeka, askeri stratejilerin ve bütçelerin önemli bir parçası haline geldi ve daha geniş 'silahlanma yarışına' katkıda bulundu[1]. Jeopolitik, nükleer ve atomik tehditler ile birleştiğinde, teknolojinin sürekli silahlaştırılmasının etiğini sorgulamak zorundadır. Bazıları bu ilerlemelerin sonuçta dünya siyasetine hakim olan sıfır toplamlı düşünceye yol açacağına inanıyor. Bu mantık yeni değil; Alfred Nobel, dinamitin yıkıcı gücünün tüm savaşlara son vereceğini umuyordu[2].


Yapay zeka halihazırda drone sürüleri, güdümlü füzeler ve lojistik analiz gibi savaş teknolojilerine dahil edilmeye başlandı. Otonom sistemler, örneğin antiaraç ve antipersonel mayınlar gibi savunma silahlarına daha da uzun süredir dahil ediliyor. Gelecekteki gelişmeler artan özerklik seviyelerini hedeflemeye devam edecektir. ABD, F-16 savaş uçağının değiştirilmiş bir versiyonunu kendi kendine uçurabilen yapay zeka botlarını test ediyor; Rusya otonom tankları test ediyor; Çin de kendi yapay zeka destekli silahlarını geliştiriyor[3].


Amaç, savaş alanlarını makineleştirmeye ve otomatikleştirmeye devam ederek insan hayatını korumaktır. Nükleer Tehdit Girişimi'nin kıdemli danışmanı Douglas Shaw, "İHA'ların silahlı kuvvetlerdeki insanlardan oldukça fazla olduğu bir geleceği kolaylıkla hayal edebiliyorum[3]" dedi. Yani askerleri karaya sürmek yerine onları uçaklara bindirip füzelerle silahlandırarak hayat kurtardık. Ordular artık yapay zekayla daha fazla insan hayatını yapay zeka güçlerinden korumayı umuyor.


Savaşta Yapay Zekanın Ahlaki Etkileri

Şu ana kadar kulağa harika geliyor. Drone'ları yönlendirmek için yapay zekayı kullanarak hayat kurtarın. Füze fırlatmak için yapay zekayı kullanarak hayat kurtarın. Savaştaki bu teknolojik sıçrama ile geçmişteki yenilikler arasındaki fark, karar vermede insan katkısının olmayışıdır. AWS ve ölümcül otonom silah sistemleri (LAWS) ile bir insanı öldürme gücünü, sezgisel insanlığa sahip olmayan bir algoritmaya teslim ediyoruz.


Burada çeşitli etik, ahlaki ve hukuki sorunlar ortaya çıkıyor.


Eylemin diğer tarafında başka bir insan olmadan savaşta insan hayatının alınması adil midir? LAWS'deki bir algoritmanın programcısı, bir savaş pilotu olarak ülkelerini temsil etme konusunda aynı sorumluluğa ve/veya düşmanın canının alınmasına katkıda bulunma konusunda aynı hakka sahip midir?


Otonom araçları çevreleyen etik ikilemlerde olduğu gibi[4], ölüm kalım kararlarını yapay zeka destekli algoritmalara devretmek ahlaki açıdan haklı mı? Teknolojik açıdan bakıldığında bu, kısmen AWS programlamasının şeffaflığına bağlı hale gelecektir: bu modellerdeki eğitim, kullanılan veri kümeleri, kodlanmış tercihler ve önyargı gibi hatalar. Yeterli düzeyde doğruluk ve şeffaflığa ulaşsak bile AWS ve LAWS'in savaşta ahlaki olduğu düşünülmeli mi?


Adil Savaş Teorisinin Ahlaki Etkileri

13. yüzyılda St. Augustine ve Thomas Aquinas'a atfedilen Adil Savaş Teorisi[5], savaşın ahlakını ve silahlı çatışmalarda etik karar almayı değerlendiriyor. Jus ad bellum (savaşta adalet) ve jus in bello (savaşta adalet) yönergeleri arasında en dikkate değer hususlar şunlardır:


  • Orantılılık: Güç kullanımı, ulaşılmak istenen amaç ile orantılı olmalı ve beklenen faydanın ötesinde aşırı zarara veya acıya neden olmamalıdır.
  • Ayrımcılık: Savaşçı olmayanların dokunulmazlığı olarak da bilinen bu ilke, savaşçıların savaşçılar ile savaşçı olmayanlar arasında ayrım yapmasını ve yalnızca ilkini hedef alırken ikincisine verilen zararı en aza indirmesini gerektirir.


Yapay zeka destekli silahların ve YASALARIN kullanımının bu sözleşmelere bağlılığı garanti etmediği ileri sürülebilir.


Orantılılık açısından yapay zeka destekli silahlar, kuvveti her zamankinden daha hızlı, güçlü ve hassas bir şekilde sunma yeteneğine sahip olacak. Bu güç düzeyi, özellikle teknolojik açıdan daha az gelişmiş silahlara sahip bir ülkeye karşı kullanıldığında, oluşturulan tehditle/askeri hedefle mutlaka eşleşir mi? Benzer şekilde, bir YASA hatalı bilgilerle beslenirse veya halüsinasyon görüp yanlış bir tahmin yaratırsa ne olur? Bu durum gereksiz askeri güç oluşturulmasına ve uygulanmasına, orantısız eylemlere yol açabilir.


Ayrımcılık noktasında bu teknolojiler %100 doğru değildir. Bir düşman gücüne füze ateşlerken, yüz tanıma[6] teknolojileri sivilleri savaşçılardan ayıramazsa ne olur? Bu, meşru askeri hedefler ile olay yerindeki masum kişiler arasındaki ahlaki ayrımı zayıflatacaktır.


Vaka Analizi

BM Uzmanlarından oluşan bir Panel, 2020 yılında Libya'da Hafter'e Bağlı Güçlere (HAF) karşı Türk ordusu tarafından konuşlandırılacak LAWS'nin (STM Kargu-2) olası kullanımını bildirdi[7]. "Operatör ile mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlandığı" [8] olarak tanımlanan drone birimleri, en sonunda elektronik sinyal bozma yoluyla etkisiz hale getirildi. Ancak bu uzaktan hava teknolojisinin devreye girmesi, daha önce "kazailerden kaçınma ve güç korumasının her iki taraf için de öncelik olduğu düşük yoğunluklu, düşük teknolojili bir çatışmanın" gidişatını değiştirdi[7].


Önemli can kayıplarına yol açan insansız saldırı uçaklarının herhangi bir ölüme yol açıp açmadığı net değil[8]. Yine de savaş hava araçlarının ve insansız hava araçlarının düzenlenmemiş, insansız kullanımıyla ilgili sorunlara dikkat çekiyor.


HAF birimleri bu tür saldırılara karşı savunma yapmak üzere eğitilmemişti, (dronların çevrimdışı olmasına rağmen gerçekleşen) hava saldırılarına karşı korumaları yoktu ve geri çekilirken bile LAWS tarafından taciz edilmeye devam edildi. STM Kargu-2'lerin çatışmanın dinamiğini değiştirdiği düşünüldüğünde bu bile tek başına orantılılık ilkesini ihlal etmeye başlıyor. Raporlar, “Türkiye'nin çatışmaya ileri askeri teknolojiyi dahil etmesinin, 2020'de Batı Libya'da HAF'ın yenilgisiyle sonuçlanan... dengesiz yıpratma savaşında belirleyici bir unsur olduğunu” ileri sürecek kadar ileri gidiyor[7].


Askeri Uygulamalarda Uluslararası İşbirliği ve Yapay Zekanın Düzenlenmesi

BM Genel Sekreteri António Guterres, 2018'den bu yana YASALARIN hem siyasi hem de ahlaki açıdan kabul edilemez olduğunu ileri sürüyor[9]. Guterres, 2023 Barış İçin Yeni Gündem'inde bunun 2026 yılına kadar resmileştirilmesi ve eyleme geçirilmesi çağrısında bulundu. Bu kapsamda, insan gözetimi olmadan çalışan ve uluslararası hukuka uymayan AWS'nin kullanımının tamamen yasaklanmasını ve güvenlik düzenlemelerinin yapılmasını öneriyor. diğer tüm AWS.


Tartıştığımız etik kaygıların üstesinden gelmeye yardımcı olmak için bu tür uluslararası işbirliği ve düzenleme gerekli olacaktır. Şimdilik AWS'nin insan gözetimi olmadan kullanılması en acil sorunlara neden olacaktır. Karar vericinin insan eksikliği sorumluluk sorunları yaratır. Yapay zeka destekli bir sistemin arızalanmasının veya genel yanılabilirliğinin sorumluluğunu bir emir komuta zinciri olmadan kim üstlenir?


Üstelik sorumluluk eksikliği de ortaya çıkacak. Özellikle Adil Savaş Teorisi gibi tanımlanmış ahlaki ilkelerin olduğu geleneksel savaşlarda, otonom sistemler tarafından gerçekleştirilen eylemlerde kusurlu bir fail olmayacaktır.


Son olarak, yapay zekanın askeri uygulamalarda giderek daha fazla benimsenmesinin faydaları olsa da, bu teknolojilerin nasıl kullanılacağı, bunun ütopik bir çözüm mü yoksa zaten politik olarak istikrarsızlaştırıcı olan silahlanma yarışının yayılması mı olacağını belirleyecek.


Bu nedenle, yapay zeka savaşında hesap verebilirliğin sağlanmasına yönelik uluslararası, yasal olarak bağlayıcı çerçeveler etrafında devam eden tartışma, yakın gelecekte yapay zeka düzenlemesinin tartışmasız en önemli alanlarından biri olacaktır.



Referanslar

  1. İnovasyonu Silahlandırmak: AB'de Yapay Zeka Destekli Güvenlik ve Savunmanın Haritalanması
  2. Savaş ve Teknoloji - Dış Politika Araştırma Enstitüsü
  3. Yapay Zeka Savaşta Nasıl Devrim Yaratacak?
  4. Etik Yapay Zeka ve Otonom Araçlar: Sürücüsüz Araçlar Çağında Ahlaki İlkelerin Savunulması | HackerÖğlen
  5. Adil Savaş Teorisi | İnternet Felsefe Ansiklopedisi
  6. Yüz Tanıma Teknolojisinde Önyargı: Yüz Tanıma Sistemlerinin Önyargıları Nasıl Sürdürebileceğini Keşfedin | HackerÖğlen
  7. Libya, Ölümcül Otonom Silah Sistemlerinin Kullanımı | Hukuk savaşta nasıl koruma sağlar? - Çevrimiçi vaka defteri
  8. Kargu-2 Otonom Saldırı Drone'u: Yasal ve Etik Boyutlar - Lieber Institute West Point
  9. Ölümcül Otonom Silah Sistemleri (KANUNLAR) – UNODA