2017 yılında bir robot işinden sıkılarak su çeşmesinde intihar etti. Daha sonra 2022'de bir Google mühendisi, şirketin chatbot'u LaMDA ile etkileşime girdikten sonra teknolojinin bilinçli hale geldiğini açıkladı . Geçtiğimiz günlerde 2021 yılında bir Tesla yazılım mühendisinin kontrolsüz bir robotun saldırısına uğradığı bildirilmişti. Bu, makinelerin işleri çalacağı korkusunu ya da makinelerin dünyayı ele geçireceği yönündeki klasik kurguyu hesaba katmıyor.
Her ne kadar Blade Runner'da makineleri kopyalar olarak görmesek de, insanlar, insan olmayanları antropomorfize etmeye veya insan nitelikleri atfetmeye yatkındır [1]. Bu, bir senaryoyu analiz edip onu anlamamızın bir yoludur: teknelerimize ve kasırgalarımıza isimler veririz, evcil hayvanlarımızla konuşuruz ve onların bize verdikleri hoş duygunun sevgi olduğunu söyleriz. Birinci şahıs ağzından "Üzgünüm, sana nasıl yardım edeceğimi bilmiyorum" diyen bir sistemi anlamak, konuştuğumuz modelin stokastik bir papağandan başka bir şey olmayabileceğini kabul etmekten daha kolaydır. [2]
Dolayısıyla antropomorfize edilmiş etkileşim, gerçekte bu tür yeteneklere sahip olmayan varlıklara özerk eylem veya kontrol atfetme eğilimini ifade eden psikolojik bir kavram olan "faillik yanılsaması" olgusuyla ilgilidir. Başka bir deyişle, bir failin (bir insan, bir hayvan ya da bir makine olsun) kendi özgür iradesiyle hareket ettiği yönündeki yanlış algıdır, oysa aslında onun eylemleri dış faktörler tarafından belirlenmektedir (hesaplamalı durumda, gelişim). tüzük).
Yapay zeka sistemlerinin hatalı kararlar veya eylemler verdiği durumlarda, bu hataları, insanlar tarafından yapılan programlama ve tasarımın sonuçlarından ziyade, varlığın "seçimleri" olarak görme eğilimi vardır; özellikle de bir varlığın bencil önyargısının rapor edilmiş olması nedeniyle. Olumsuz bir sonucun nedeninin ve sorumluluğunun kendisine atfedilemeyecek şekilde görülmesine yol açan insan varlığı, insan-makine etkileşimlerinde bile gözlemlenebilmektedir.
Algıdaki bu değişiklik, tehlikeli bir şekilde, insan yaratıcıları, işletmecileri ve düzenleyicileri sorumluluklarından kurtarmaya meyillidir; bu, bir hukuki düzenleme meselesi olarak değil (sadece konunun karmaşıklığı nedeniyle değil, aynı zamanda Yapay İstihbarat genellikle yalnızca makine öğrenimi olarak anlaşılır ve önerme düzgün bir şekilde yapılandırılmamıştır. Daha sıkı düzenlemelere mi ihtiyacımız var? Daha fazla risk almamız gerekiyor mu?) Ancak tekno-etik bir konu üzerinde duruyor.
2023'teki daha ekstrem ama gerçek bir olayı ele alalım: Bir chatbot'a duygusal olarak bağlanan bir kullanıcı, düşüncelerini botla paylaşıp "sözlerini eyleme dönüştür" yanıtı ve diğer mesajları aldıktan sonra intihar etti. Bu ürünün geliştiricilerinin mahkeme tarafından mahkûm edilmesi, mesajların içeriği ve etki aynıysa, başka bir kullanıcının başka bir chatbot'la aynı şekilde davranmasına neden olur mu? Bu chatbotun devre dışı bırakıldığını varsayarsak? Bu sadece hukuki bir durum değil. Bu sosyal, psikolojik ve teknolojik bir eğitim meselesidir.
Yapay zekayı insanileştirme kavramı belirsizdir ve önemli bir zorluk, yapay zekayı tasarlamak ve kullanmak için en iyi uygulamaları belirleyen, evrensel olarak kabul edilmiş bir yaklaşımın yokluğunda yatmaktadır. İnsan davranışını taklit eden bir arayüz daha ulaşılabilir olsa da, bir üründe neyin yapılması veya yapılmaması gerektiğini tanımlayan net sınırlar yoktur. Sonuçta, kullanıcı reddi tek sınırlayıcı faktör haline gelir, ancak potansiyel zarar, arayüz çok yabancı hale gelmeden önce ortaya çıkabilir.
Kullanıcı dostu bir arayüz, arkasında çalışan sistemin karmaşıklığının azaltılmasıdır. Ancak sistemlerin nasıl çalıştığına dair eğitim olmadığı sürece kullanıcı, kullandıkları şey hakkında eleştirel düşünemeyecektir. Bu, herkesin programcı olması gerektiği anlamına gelmez, ancak en azından ekranlarındaki çıktının veri toplama, model geliştirme ve tasarım yolundan geldiğini anlayın. Bir dizi kural uygulanıyor. İnsanlaştırma, biz kullanıcılar açısından neredeyse bilinçsiz bir eylem olduğundan, en azından bunu biraz bilgiyle sınırlayalım.
Özellikle endüstrinin, medyanın ve günlük yaşamın standart dili göz önüne alındığında, yapay zeka hakkında iletişim kurarken antropomorfizmden kaçınmak kolay değildir: makine öğrenimi , bilgisayarla görme , üretken modelleme . Yapay Zeka algıları dilin spesifik kullanımından etkilenebilir.
Yapay zekanın nasıl sunulduğu, özellikle insanların yapılan işin sorumluluğunu ve takdirini dağıtma şekli üzerinde "somut etkilere" sahiptir. Yalnızca insanların elindeki bir araç olarak tanımlandığında, kodu çalıştıran kişi gibi belirli kişilere daha fazla sorumluluk ve değer atfetme eğilimi gösterir. Öte yandan, eğer yapay zeka, yaratma yeteneği gibi insani özelliklerle karakterize edilirse, bağımsız düşünceye ve zihinsel kapasiteye sahip bir ajan gibi, daha fazla itibar ve sorumluluğu hak ettiği görülüyor. [4] Yapay Zeka ile ilgili olaylar veya alışılmadık olaylarla ilgili haberleri okuduğumuzda sıklıkla bu terimlerle karşılaşırız.
Ayrıca "zeka" atfedilmesi, otonom davranış göreve doğrudan katkıda bulunmasa bile, bir görevin sonucu için otonom olmayan bir robota kıyasla otonom davranışa sahip bir robota daha fazla suçlama veya itibar atfedildiği anlamına gelir. [3] Dolayısıyla bu çalışmalar, insanların, makinelerin antropomorfize edilmiş zihinsel kapasitelerine dayalı olarak bir bilgisayara veya robota sorumluluk atayabileceğini öne sürüyor.
Makinelerin insanileştirilmesi yalnızca cihazın sorumluluğu ile onu yaratan insanın sorumluluğu arasındaki ayrımı değiştirmekle kalmıyor, aynı zamanda bir makineye niyet veya bilinç atfedilmesi aynı zamanda gerçek özerklik ve bilinci oluşturan şeyin sınırlarını bulanıklaştırıyor.
Ancak bir makineye insanlık ve duyarlılık atfetmenin zorluğu yalnızca Yapay Zekanın buna sahip olmaması ve örneğin korku hissettiğini söylediğinde aslında öğrendiğini taklit etmesi, tekrarlaması değildir. arkasında herhangi bir öz bulunmayan bu cümle. Bugün bile bilincin nasıl tanımlanacağı konusunda hararetli bir tartışma var. İnsanlar olarak bilincimiz.
Beynin nasıl çalıştığına dair anlayışımız hala oldukça sınırlıdır. Temel kimya hakkında hatırı sayılır bilgiye sahibiz: nöronların etkinleşme şekli ve kimyasal sinyallerin iletimi. Ayrıca çeşitli beyin alanlarının ana işlevlerine dair de iyi bir anlayışa sahibiz. Ancak bu fonksiyonların bizi nasıl yönettiğine dair çok az bilgimiz var. Bir dereceye kadar teorik spekülasyonlar, beyinde olup bitenlere ilişkin ayrıntılı nörofizyolojik çalışmaların yerini almıştır. Peki ya bunun ötesinde? [5] Neden kendimizle ilgili bu sihirli düşünceye sahibiz? Aynı deneyim bizi neden farklı şekilde etkiliyor? Hepimiz aynı duyguyu aynı şekilde mi hissediyoruz?
Eğer insan olmak, her ne kadar deneyimlesek de bir bütün olarak ne olduğunu tam olarak kavrayamadığımız bir şeyse, bir makinenin de bu karmaşıklığı yaşadığını nasıl söyleyebiliriz? Makineleri insan yetenekleri seviyesine yükselterek insanların özel karakterini azaltıyoruz.
Brezilya Kitap Odası (CBL), Brezilya edebiyatının en yüksek ödüllerinden biri olan 2023 Jabuti Ödülü için, 1818 klasiğinin bir baskısı olan Frankenstein'ı En İyi İllüstrasyon kategorisinden diskalifiye etmeye karar verdi; çünkü sanatçı, geliştirmek için yapay zeka çözümlerini kullandığını bildirmişti. Sanat. İronik bir şekilde, Kurgu Dışı kategorisinde Ödüle layık görülen kitaplardan biri, Yapay Zekanın insanlar üzerindeki etkisini ele alıyor ("Humanamente digital: Inteligência yapay centrada no humano", "Humanly Digital: Human-Centered Artificial Intelligence" gibi bir şey) İngilizce, Cassio Pantaleone tarafından). Bir yandan insan deneyiminin makinelerle iç içe olduğunun farkındayız. Öte yandan, sanat aracı olarak kullanılan bir algoritmanın geçerli bir yaratım yöntemi olarak kabul edilip edilemeyeceğini henüz doğrulamayı başaramadık; her ne kadar sanatsal süreç, makine öğrenimi ile yürütülse bile, eylemi gerektirse de ( ve insanın güzelliğine ve estetiğine olan takdiri.
Makineler, ayrım gözetmeksizin kullanılmadıkları sürece işleri çalmazlar. Makineler silah olarak kullanılmadıkça öldürmez. Makineler acı çekmiyor veya empati kurmuyor, ancak metinleri bunu taklit ediyor çünkü bizden gelen verilerle eğitilmişler ve yalnızca bizim gerçekten hissedebileceğimiz duygularla dolular. Bunlar neredeyse Golem mitinin modern versiyonudur. İnsanlar insan olmayan zekayla nasıl ilişki kurabilir? Antropomorfizm geçerli bir cevaptır ancak tek cevap değildir. Ve kullanıldığında, uygun olsun ya da olmasın, sonuçlarının gerçek sorumluluğundan bizi kurtaramaz: bizi.
Yapay Zeka sonuçta kendimizin bir aynasıdır. Ve eğer onun nereye gideceğinden korkuyorsak, bunun nedeni aslında yaratacağımız yoldan korkmamızdır.
[1] Epley, N., Waytz, A. ve Cacioppo, JT (2007). İnsanı görmek üzerine: Üç faktörlü bir antropomorfizm teorisi. Psikolojik İnceleme, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. ve Muller, M. (2023) . Yapay Zeka Antropomorfizmi Üzerine
[3] Kawai, Y., Miyake, T., Park, J. ve diğerleri. Robotlara antropomorfizm temelli nedensellik ve sorumluluk atıfları. Sci Rep 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG ve Rahwan, I. (2020). Yapay Zeka Tarafından Üretilen Sanat İçin Kim Kredi Alır? iScience'da (Cilt 23, Sayı 9, s. 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515
[5] Goff, P. (2023). Bilinci Anlamak Beyin Kimyasını Keşfetmenin Ötesine Geçer. Bilimsel amerikalı
Bu makalede kullanılan görüntü şu istemle oluşturuldu: "Aynaya bakan bir adam yaratın, ancak ayna robot şeklindedir." Sofya × DALL·E