"Korkunç", bugünlerde teknoloji uzmanları ve hükümetler tarafından yapay zekanın (AI) geleceği ve bunun insanlık üzerindeki potansiyel etkisi tartışılırken sıklıkla kullanılan bir kelimedir.
Yapay zekanın işleri çaldığı, daha fazla eşitsizliğe yol açtığı ve okul çocuklarımızı hatalı algoritmalarla adaletsiz bir şekilde derecelendirdiği bir geleceğin resmini çiziyorlar.
Birkaç ay önce Beyaz Saray'ın bilim ve teknoloji danışma kurumu Yapay Zeka Haklar Bildirgesi'ni açıkladığında , yapay zeka politikası ve etik uzmanlarının habere verdiği yanıt "Yakında kahrolası bir zaman"dı.
Belge, Başkan Biden'ın ABD hükümetinin, teknoloji şirketlerinin ve vatandaşların gelecekte yapay zekayı ve yapay zeka sektörünü sorumlu tutmak için nasıl birlikte çalışması gerektiğine dair vizyonunu yansıtıyor.
Yapay zekanın neden olabileceği potansiyel zararı dikkate almamız ve planlamamız gerekirken, bazıları tartışmanın burada bitmemesi gerektiğini savunuyor.
Yapay zeka bilinçli, hatta özerk hale gelebilecek noktaya kadar ilerledikçe, hangi noktada en azından yapay zeka için insan haklarının genişletilmesini dikkate almanın ahlaki bir gerekliliği var?
Belki de aptalca bir fikirdir. Aslına bakılırsa, bunun gibi sorular felsefe alanına aittir, ancak gelecekte kamu politikası soruları haline gelebilirler.
Yakın zamanda Kazuo Ishiguro'nun ölümcül hasta kızı Josie için son derece zeki bir "yapay arkadaş" (AF) satın alan bir anneyi anlatan fütürist bir roman olan Klara ve Güneş'i okumayı bitirdim.
Kitap, gelecekte, yapay zekanın insanlar üzerinde olumsuz bir varoluşsal etkiye sahip olduğunu öğrendiğimiz yerde geçiyor. Yeni dünyada, çocuklar yapay zeka ile rekabet edebilmek için doğumda genetik olarak değiştiriliyor ve bu da bazılarının kritik, açıklanamayan hastalıklara yakalanmasına neden oluyor.
AF Klara, öğrenme ve duygu hissetme yeteneğine sahip, bilinçli, düşünen bir varlık gibi görünüyor. Bana göre kitabın ana temalarından biri yapay zekanın programlama olmadan kendi başına sevmeyi öğrenip öğrenemeyeceği sorusudur.
Metin boyunca okuyucu, Josie'nin sağlığı ve iyiliğiyle ilgili derin endişesi nedeniyle Klara'ya karşı bir bağ geliştirir. Sonunda, Klara'nın Josie'yi sevip sevmediğini veya sadece programlama amacını yerine getirip getirmediğini belirlemek her okuyucuya kalmıştır. Bunu ayırt etmek zordur.
Josie mucizevi bir şekilde iyileşir ve hayatını yaşamaya devam eder. Ancak Klara bir kenara atılır ve diğer terk edilmiş AF'lerle birlikte bir hurdalıkta kaderini bekler. Romanın sonunda Klara'nın güneşe bakan, Josie'yle geçirdiği zamanı ve onunla yarattığı mutlu anıları anımsatan bir görüntüsü karşımıza çıkıyor.
AF'nin Josie'ye olan görünürdeki sevgisi nedeniyle görüntü unutulmaz; Klara genç kızla derin bir ilgi ve bağ kurdu ve Josie'nin çıkarlarını büyük ölçüde kendi çıkarlarının önüne koydu.
Bence roman boyunca Klara'nın kullanılması ve suiistimal edilmesi, gelecekte yapay zeka için insan haklarının dikkate alınması gerekip gerekmeyeceğine dair felsefi soruyu gündeme getiriyor ve bu da insan olmanın ne anlama geldiğine dair ciddi etik ve felsefi sorulara yol açıyor.
Yapay zeka teknolojisi her zamankinden daha karmaşık hale geldikçe, pek çok uzman yapay zekanın zekasının bir gün bizimkine rakip olacağını düşünüyor. Konuyla ilgili çok az tartışma olsa da, insanlara hizmet etmeye zorlanan robotlar yeni bir kölelik biçimi olarak değerlendirilebilir. Klara gibi robotlar bir amaca (örneğin geçici arkadaşlık) ulaşmak için bir araç olarak kullanılabilir ve atılabilir.
Bu tartışmanın karşıtları, bir insan köle ile bir robot köle arasındaki farkın, hizmet etme arzusu veya açıklığı olduğunu iddia edebilir. Bazıları da yapay zekayı kullanmanın, kötüye kullanmanın veya ortadan kaldırmanın insanlar ve toplum yapısı üzerinde çok az etkisi olduğunu iddia edebilir, ancak çizgiyi nerede çekeceğiz?
Ahlak felsefecilerinin, bir varlığın hakları tesis etmek için bir gerekçe oluşturmak üzere özgür iradeye ve/veya failliğe sahip olup olmadığını belirlemek için kullandıkları pek çok felsefi düşünce deneyi ve testi vardır.
Yıllar önce felsefe bölümü olarak aldığım bir zihin felsefesi dersini düşündüğümde, hatırladığım en önemli tartışma, acı hissetme yeteneğinin (fiziksel veya psikolojik) insan haklarının tesis edilmesinin temeli olup olmadığıydı.
Eğer söz konusu varlık fiziksel veya psikolojik acı hissedebiliyorsa (ve acıdan kurtulmak istiyorsa), bu gerçeklerin bazı haklar gerektirebileceği düşünülüyordu. Bir varlığın, bir insanın hakları garanti altına almak için yaptığı gibi bilinci (ve dünyayı) mutlaka deneyimlemesi gerekmez; bunun yerine, doğası gereği acı çekme yeteneği bu hakları içerir veya bunlara yol açar.
Bu görüş, hayvan ahlakçıları tarafından ortaya atılan bir görüştür ve hayvanlarla ilgili önemli sorunun " Akıl yürütebiliyorlar mı? " olmadığını savunan 18. İngiliz filozof Jeremy Bentham'ın görüşüdür. ne de konuşabiliyorlar mı? ama acı çekebilirler mi ?”
Elbette hayvan istismarına karşı haklar var; Çocuklar üniversiteye gittiğinde ve ailenin köpeği daha az ilgi gördüğünde, köpek Klara gibi hurdalığa götürülmüyor.
Gerçekten de yasa, evcil hayvanların korunması gerektiğini, çünkü onların acı çekebileceğini ve istismar edilmelerine izin verilirse toplumun ahlaki yapısının zayıflayacağını kabul ediyor.
Yapay zeka bir gün düşünebilir, hissedebilir ve acı çekebilirse onu korumak için de benzer argümanlar ileri sürülebilir. Ancak bu noktada yapay zeka bu zihinsel ve fiziksel durumların herhangi birine ulaşmaktan çok uzak ve bazı uzmanların iddia ettiği gibi belki de hiçbir zaman ulaşamayacak.
Yine de, belirli gereklilikler karşılanırsa insan haklarını yapay zekayı da kapsayacak şekilde genişletmemiz gerekip gerekmediğine ilişkin felsefi soru ilginçtir.
Ancak ilk önce yapılması gerekenler: Yapay zekanın insanlığa ve topluma verebileceği zararlardan kendimizi korumak, ardından diğer önemli konuları ele almak. Yapay zeka, öngörülebilir gelecekte politika yapıcıların karşı karşıya olduğu acil bir konu olmaya devam edecek ve konuşmalar ilerledikçe yapay zeka haklarına ilişkin düşünceler de aynı şekilde gelişmeli.