paint-brush
Etik Yapay Zeka ve Otonom Araçlar: Sürücüsüz Araçlar Çağında Ahlaki İlkelerin Savunulmasıile@nimit
539 okumalar
539 okumalar

Etik Yapay Zeka ve Otonom Araçlar: Sürücüsüz Araçlar Çağında Ahlaki İlkelerin Savunulması

ile Nimit6m2024/03/21
Read on Terminal Reader

Çok uzun; Okumak

Makale, otonom araçların (AV'ler) özellikle daha yüksek özerklik düzeylerinde karşılaştığı ahlaki zorlukları Tramvay Sorunu gibi etik çerçeveler merceğinden inceliyor. Yapay zekayla karar verme, duyusal güvenilirlik ve yasal sorumluluk konularını vurgulayan bir Uber olayıyla ilgili örnek olay incelemesi tartışılıyor. Toplumsal güveni ve otonom teknolojinin sorumlu bir şekilde ilerlemesini sağlamak için AV'lere yönelik açık etik ve yasal yönergelerin gerekliliğini vurgulayarak sonuçlanıyor.
featured image - Etik Yapay Zeka ve Otonom Araçlar: Sürücüsüz Araçlar Çağında Ahlaki İlkelerin Savunulması
Nimit HackerNoon profile picture
0-item

Otonom araçlar (AV'ler) kavramı, yollarda aktarılan karar alma özerkliğinin etiği konusunda uzun süredir tartışmalara yol açmaktadır. Otomotiv Mühendisleri Derneği, AV kapasitesini farklılaştırmak için sektörde resmi olarak kullanılan 6 özerklik Düzeyini belirler.


0-2 AV seviyeleri ticari pazarlarda zaten mevcuttur. Seviye 3, yetenekteki ilk önemli sıçramadır. Kısa süreliğine kendi kendine gidebilen ancak sistemin talep etmesi halinde bir insan sürücünün müdahale etmeye hazır olmasını gerektiren araçları tanımlıyor. Seviye 4-5 daha sonra çevresel tespitin ötesine geçer. Bunlar, insan müdahalesini tamamen ortadan kaldıran en son teknolojileri kapsar. Seviye 4 AV'ler belirli koşullar altında insan müdahalesi olmadan tüm yolculuğu tamamlayabilir. Seviye 5, her koşulda yolculuğun tamamını tamamlayabilir. Seviye 5, örneğin direksiyona veya pedallara bile ihtiyaç duymayan araçlarla ilişkilendirilir.


Bu iki yüksek özerklik düzeyi çevresinde ortaya çıkan ahlaki ve etik ikilemler, doğrudan karar verme gücünün neredeyse tamamının kaybından kaynaklanmaktadır. Temel teknolojilerin doğru işleyişi, insan yaşamına ve ilkelerine değer verme yeteneği, ödünleşimler ve sorumluluk, daha sonra hem etik hem de yasal çerçeveler altında sorun haline gelir.


Bunları meşhur Tramvay Probleminden başlayarak inceleyeceğiz.

Tramvay Sorunu

Tramvay Problemi, erdem etiği adı verilen felsefe dalı içinde oluşturulmuş bir düşünce deneyidir ve öngörülebilir sonuçların ahlaki düzeyde amaçlanan sonuçlarla nasıl karşılaştırıldığını tartışır. İngiliz filozof Philippa Foot (1967) tarafından tasarlanan ana varyasyon aşağıdaki gibidir:


Bir tramvay bir dizi ray boyunca kontrolden çıkmış ve kırılamayacak şekilde ilerliyor. Bu raylara 5 kişi bağlı ve tramvay hızla onlara yaklaşıyor. Rayların dışında, çekildiğinde tramvayın yörüngesini farklı bir ray dizisine yönlendirecek bir kolun yanında duruyorsunuz. Bu alternatif yola bağlı yalnızca bir kişi var, dolayısıyla tramvay şu anda 5 kişiyi öldürecek, ancak harekete geçerseniz bu sayı yalnızca bir kişiye düşebilir. Kolu çeker misin?

Karar Almada Etik Çerçeveler

Tramvay Sorunu birçok etik çerçeve altında incelenebilir.


  • Sonuççular, sonuçtaki genel zararı, gerekli olan her şekilde azaltmanın daha iyi olduğunu savunurlar.
  • Deontologlar, kolu çekip bir kişiyi aktif olarak öldürme eyleminin, tramvayın normal seyrine devam etmesine izin vermekten ahlaki açıdan daha yanlış olduğunu savunurlar.
  • Faydacılar, en etik tercihin, en fazla sayıda insan için en fazla miktarda iyilik yarattığını savunurlar.
  • Rawls'çular tüm yaşamların eşit olduğunu ve adaleti sağlamak ve en adil şekilde davranmak için kişinin daha büyük zararları önlemesi gerektiğini savunurlar.
  • Hak temelli etik, yaşam hakkının mutlak olduğunu ve herhangi bir değiş-tokuş uğruna ihlal edilmemesi veya feda edilmemesi gerektiğini savunur.


Hangi ideoloji olursa olsun, başkalarına verilecek zararı en aza indirme görevimiz, ahlaki açıdan doğru eylemi seçme görevimizle doğrudan çelişir. Otonom araçlarda pek çok kişinin sorguladığı şey, kararlara ve buna benzer ödünleşimlere değer verme yeteneğidir. Örneğin, bir AV çarpmak üzereyse, yayalara/diğer araçlara göre aracın yolcularına öncelik verilmeli mi?


Ancak otonom araçların etiğinde göz önünde bulundurulması gereken yalnızca zor kararlar verme yeteneği değildir. İnsanlar Tramvay Sorunu'na hangi etik çerçevenin en iyi şekilde cevap vereceği konusunda anlaşamazken, sürücüsüz arabaları tek bir ideoloji altında bu tür ödünleşimleri tartacak şekilde nasıl programlayabiliriz?


Yapay zekaya hangi temel değerleri ve ilkeleri programlamalıyız?


Kurtarılan hayatların sayısı gibi olumlu görevlere mi yoksa verilen aktif zararı en aza indirmek gibi olumsuz görevlere mi öncelik vermesini istiyoruz?

Vaka Analizi

Uber, 2018'de Arizona'da Seviye 3 AV'yi test etti ve bunun sonucunda trajik bir yaya ölümü gerçekleşti; bu, şimdiye kadar AV'nin neden olduğu ilk olaydı. Seviye 3 olduğundan araçta yedek sürücü mevcuttu ama yeterli değildi. Çevresel algılama sistemi engeli (burada bisikletli bir yaya) doğru bir şekilde tespit etmekte zorlanırken, zarar olasılığı otomobilin uyarı sistemleri tarafından yeterince hızlı bir şekilde fark edilemedi. Yedek sürücü nihayet kontrolü ele alması için uyarıldığında, aracın çarpmasına 0,2 saniye kalmıştı ve saatte 60 kilometre hızla gidiyordu.


Yedek sürücü hiçbir zaman kendine zarar verme riskiyle karşı karşıya olmadığından, bu örnekte AV yolcularına doğrudan zarar verilmesi ile aracın dışındaki yayalara verilen zararın değiş tokuşu mutlaka tartışılmamaktadır. Ancak yapay zekanın duyusal tespitine kendi başımıza güvenip güvenemeyeceğimizi ve güvenmemiz gerektiğini ve bu tür yüksek basınçlı, kısa süreli senaryolarda manuel geçersiz kılmanın uygun bir yedekleme olup olmadığını gün ışığına çıkarıyor.


Ayrıca, cinayetten sorumlu bir ahlaki failin bulunmaması nedeniyle özerkliğin geçici olarak bile olsa bir AV'ye devredilmesi sorununun altını çiziyor. Bu durumda Uber, Arizona'da test ettiği 90'dan fazla Seviye 3 AV'yi geri çekti ve kurbanın ailesiyle anlaşmaya vardı. Öte yandan yedek sürücü ihmalkar cinayetle suçlandı. Suç doğru bir şekilde ona mı atılmıştı, yoksa araç mı olmalıydı; ikincisi mümkün mü?

Etik yapay zeka

UNESCO, yapay zeka etik çerçevelerinin zarardan kaçınmaya ve insan haklarına saygıya öncelik vermesi gerektiğini belirtiyor. Güvenlik ve ayrımcılık yapmama, makine öğrenimi ilkelerini desteklemelidir. Sorumlu yapay zekanın yanı sıra insan gözetimi, kontrolü ve hesap verebilirliği de temel kabul edilmelidir.


Adalet ve 'çoğunluğun iyiliği için' gibi ek kavramlar, yapay zekanın karar vermede faydacı bir ideoloji kullanmasını istediğimizi gösteriyor. Öte yandan 'insan haklarına saygı' bizzat eylemlerin ahlaki doğruluğuna, yani deontolojiye etki eder.


Elbette şeffaflık, kararların AV'ler tarafından nasıl hesaplandığının anlaşılmasında da çok önemli olacaktır. Bir AV kazası durumunda oluşan veya önlenen zararı değerlendirmek için, altta yatan yapay zeka teknolojisinin nasıl ve neden belirli bir sonuca ulaştığını anlamamız gerekecek. Halkın AV'lere olan güveni, hesap verebilirliğin anlaşılmasını ve doğru çerçevelere uyulduğundan emin olunmasını gerektirecektir.

Etik Otomatik Karar Verme

Avrupa Parlamenter Araştırma Hizmeti, otomatik karar alma yapay zekasının geliştirilmesinde ve dağıtılmasında ele alınması gereken etik, yasal ve ekonomik kaygıların farkındadır. Bu, temel algoritmalarda etik ilkelerin nasıl geliştirileceğine ve küresel politika ve düzenlemelerin yapay zeka inovasyonunun katlanarak artan hızıyla nasıl hızlandırılacağına ilişkin araştırmaları içerir.


İnsan hakları açısından insan faaliyetine de öncelik veriliyor ve araştırma kurumları 'son kullanıcıların yalnızca otomatik işlemeye dayalı bir karara tabi olmama hakkını' korumak istiyor. Teknoloji tarafında ise güvenli ve güvenilir sistemlerin sağlanması için siber güvenlik standartları daha önemli hale gelecek. Etik yapay zeka güvenilir yazılım gerektirir.

Çözüm

Şu anda Birleşik Krallık'taki yollarda Seviye 3+ AV'leri kullanan genel bir kitleye sahip olmasak da veya iç pazarlarda henüz bu tür araçlar mevcut olmasa da, BMW, Tesla ve Mercedes gibi sektördeki büyük oyuncular, teknolojileri kullanarak bunları 2025 yılına kadar piyasaya sürmeyi hedefliyor. Bunu yapmak için Trafik Sıkışıklığı Pilotu gibi.


AV'ler karar verme etiğini doğru şekilde uygularsa, görülecek büyük faydalar vardır. Bazı tahminler, yollarda trafikle ilgili kazalarda %90'lık bir azalma öngörüyor. Yine de AV'leri destekleyen teknolojiler söz konusu olduğunda kararların nasıl alınması gerektiğini ve ödünlerin nasıl önceliklendirileceğini belirleyen ölçülebilir etik ve yasal çerçevelere henüz sahip olmadığımız açıktır.


AV oyuncularının bu nedenle 'zararı en aza indirmenin' ne anlama geldiğini ve karar vermede hangi etik ideolojinin dikte etmesi gerektiğini daha ayrıntılı olarak belirtmeleri gerekecektir. Uber'in 2018'deki kazasında da gördüğümüz gibi, sorumluluk ve failliğin de açıklığa kavuşturulması gerekecek. Tüm bunların nasıl ele alındığı ve hangi yönde ilerleyeceğimiz, toplum için uzun vadeli etik sonuçlar doğuracaktır.

Referanslar