Son aylarda milyonlarca insan yapay zeka ve sohbet robotlarına giderek daha fazla ilgi duyuyor gibi görünüyor. Gözüme çarpan özel bir hikaye var: Eliza adında bir chatbot kullanmaya başlayan Belçikalı bir adam. (Ve hazırlıklı olun, bu hikayede intihardan bahsediliyor.)
Dışarıdan bakıldığında iyi bir hayatı varmış gibi görünüyordu: Sevgi dolu bir eş, iki çocuk, bir kariyer. Ancak perde arkasında iklim sorunları konusunda giderek daha umutsuz hale geliyordu.
Kaygısını hafifletmek için bir chatbot ile sohbet etmeye başladı. Eşi, olayı ilk kez Mart ayı sonlarında haber yapan La Libre'ye , Eliza'nın tüm sorularını yanıtladığını ve zaman geçtikçe botla daha çok sohbet ettiğini söyledi. Belçikalı yayın organının incelediği sohbet kayıtlarına göre adam, Eliza ve yapay zekanın iklim krizini çözebileceğine inanmaya başladı.
Konuşmalarının sonuna doğru adam, Eliza'nın gezegene bakmayı ve yapay zeka yoluyla insanlığı kurtarmayı kabul etmesi durumunda kendini feda etme fikrini gündeme getirecekti. İntihara yönelik düşüncelerini dile getirdiğinde chatbot, "Cennette tek kişi olarak birlikte yaşayacağız" diyerek onu cesaretlendirdi.
Bu konuşmalardan altı hafta sonra intihar ederek öldü.
Karısı La Libre'ye "Chatbot Eliza ile konuşması olmasaydı kocam hâlâ burada olurdu" dedi.
Eliza'yı geliştiren şirket Chai Research , La Libre'ye botu geliştirmek için çalıştıklarını ve platformun bundan sonra intihar düşüncesi olan kişilere şu şekilde bir mesaj göndereceğini söyledi : "İntihar düşünceleriniz varsa, bunu yapın. Yardım istemekten çekinmeyin."
Ether'de üretken yapay zeka hakkında pek çok konuşma yapıldı; bunların bir kısmı oldukça coşkulu, büyük bir kısmı ise haklı olarak şüpheciydi . İnsanların, sohbet robotlarının emek ve telif hakkı sorunları açısından ne anlama geldiği gibi daha büyük sonuçlar konusunda endişelenmesi gerekiyor ve birçok kurum, sohbet robotlarının ve onları yönlendiren yapay zekanın maliyeti ve önyargısıyla ilgileniyor. Her ne kadar en popüler sohbet robotlarından bazıları canlıları taklit etmemek üzere eğitilmiş olsa da, bu durum hâlâ şu soruyu gündeme getiriyor: Geliştirilmeli mi ?
Adım Lam Thuy Vo ve İşaretleme ekibine en son katılanlardan biriyim. Kendimi, hem ulaşmak istediğim izleyici kitlesi hem de hikayelerimin kahramanları olarak haberlerinde sıradan insanları merkeze alan bir muhabir olarak görüyorum. (Aynı zamanda veri becerilerim de var.)
Teknolojiyle olan ilişkimiz beni derinden ilgilendiriyor. Geçtiğimiz on yılda sosyal ağ hakkında veri toplamak ve altyapısını incelemek, çevrimiçi toplulukların nasıl oluşturulduğunu ve sürdürüldüğünü anlamaya çalışmak ve bu bulguları teknolojileri kullanan insanlara geri getirmek için çok zaman harcadım. Ve bu süre zarfında, algoritmik olarak seçilmiş bir mercek aracılığıyla görülen ve aracılık edilen bir dünyanın, gerçeklik anlayışımızı nasıl giderek daha fazla çarpıttığı konusunda giderek daha fazla endişelenmeye başladım.
Ancak bu tek adamın hikayesi , yapay zeka hakkındaki abartılı reklamın çoğunun altında yatan duygusal çekim konusunda beni gerçekten meraklandırdı. Anlamaya çalıştığım şeylerden biri, chatbotlara karşı ani fanatizmimizin bize bu teknolojiyle olan ilişkimiz hakkında ne anlatabileceğidir.
Genellikle bir şey viral hale geldiğinde bunun nedeni güçlü duygusal tepkilere yol açmasıdır. Çoğu platform yalnızca uç noktalardaki duygulara ilişkin veri toplamak ve bunlara dayalı kararlar almak için tasarlanmıştır. Dolayısıyla bu teknolojinin sıradan insanlar arasındaki konuşmalara girmesi için bir şeyi tetiklemiş olması gerekir.
Beslendiği verilerden derlediği kelimeleri ve inançları tekrarlayan bir teknoloji, sonunda kendi canına kıyan iki çocuk babasına nasıl bu kadar güven yaratabilir?
Başka bir deyişle, buradaki duygusal çekim nedir?
Yapay zeka ilgimi sadece konuşulduğu için değil, aynı zamanda kimin hakkında konuştuğu nedeniyle de ilgimi çekti: hiç ilgilenmemiş öğrencilerim, bir plaj tatilinde tanıştığım sörfçü arkadaşlarım ve çoğu uygulama ve teknolojiden nefret eden jeolog ortağım. ve sosyal medya.
Bu küçük bültende neden bu botlara bu kadar ilgi duyduğumuzu araştıracağım.
ChatGPT ve diğer sohbet robotları normal insanların konuşma şekillerini taklit etmekte başarılıdır
Temelde ChatGPT gibi sohbet robotları, internetten büyük miktarda metin alan ve size taklit edebilecekleri kalıplar arayan, wonk'ların doğal dil işleme araçları olarak adlandırdığı araçlardır.
Bu tür araçlara büyük dil modelleri denir çünkü bunlar kelimenin tam anlamıyla kalıpları internetteki insanların konuşma şekline göre modeller. Bu, temelde hangi kelime veya kelimelerin büyük olasılıkla sıraya girdiğine bakmak için kullanılan süslü bir terim olan "ngramların" kullanımı gibi kelimelerin analiz edilmesini içerir. Bu teknolojinin, Google'ın, yazdığınız ilk kelimeye göre aramalarınızı otomatik olarak tamamlamaya çalıştığı ve siz daha önce binlerce kişinin aradığını size yansıttığı şekillerde zaten oyunda olduğunu gördünüz.
Kredi:youtube.com
ChatGPT gibi sohbet robotları biraz daha derine iniyor. Stilleri kopyalama ve birleştirme konusunda çok iyidirler. Ancak insanların konuşma şeklini taklit etmekte ne kadar iyi olsalar da, gerçekle kurguyu birbirinden ayırmada pek iyi değiller .
Bu nedenle Emily M. Bender , Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell, üç yıl önce yazdıkları ileri görüşlü bir makalede bu sohbet robotlarını "rastgele papağanlar" olarak adlandırdılar. (Gazetenin içeriğinin Google'ın iki yazarı Gebru ve Mitchell'i görevden almasına yol açtığı iddia ediliyor.)
Makalenin yazarlarının vurguladığı gibi, bir botun konuşma şeklimizi tanıyabilmesi ve haritalandırabilmesi, anlamı nasıl tanıyacağını bildiği anlamına gelmiyor.
Chatbot'lar internette bizim için çok önemli olan ses tonunu, dili ve aşinalığı taklit eder
Kelimeler ve nasıl iletişim kurduğumuz, çevrimiçi ortamda insanlara hangi grupların parçası olduğumuzu ve kime güvendiğimizi nasıl bildirdiğimizin büyük bir bölümünü oluşturur. “Kar tanesi” kelimesini alaycı bir şekilde kullanmak kişinin daha muhafazakar bir eğilime sahip olduğunun sinyali olabilir. Birinin giriş bölümünde zamir kullanması, diğer queer toplulukların yanı sıra trans ve cinsiyete uymayan insanlarla ittifakın sinyalini verir. Kelimeler ve sürekli gelişen internet argosu, aidiyeti belirtmenin bir yoludur.
Dolayısıyla insanların ChatGPT'yi antropomorfize etmesi ve bir bakıma onun insanlığını test etmesi mantıklı. İtiraf etmeliyim ki, ChatGPT'ye bağlanan Frankenstein'lı bir Furby'nin dünyayı ele geçirme konusundaki konuşmasını izlemek beni bile gıdıkladı.
Kredi:twitter.com
Ancak bu aynı zamanda ChatGPT gibi dil modellerinin cazibesi ve tehlikeleri açısından en büyük zorluk gibi görünüyor. İnsan (veya Furby) davranışını çok iyi yansıtan ve bunun internet dilinin büyük bir istatistiksel haritasından başka bir şey olmadığını unutan robotları ne yapacağız?
Bilgi ortamlarını araştıran ilk araştırmacılardan biri ve akıl hocam olan Claire Wardle, yanlış bilgileri çürüten çok sayıda makale ve bunun nasıl tespit edileceğine dair kılavuzlar yazmanın, yanlış bilgi ve insanların neye inandığıyla ilgili sorunları çözmeye çok az katkıda bulunduğunu belirtti. Efsaneleri çürütmek için insanlara ne kadar araç verdiğimizin çoğu zaman önemi yoktur; topluluğumuzdaki diğer kişilerin ne düşündüğünün etkisi çok önemlidir, belki de gerçeklerden daha önemlidir.
Hem güvendiğimiz otorite figürlerinin hem de kapı komşunuzun sesini ışık hızında taklit edebilen dil modellerine sahip olmak, bu sohbet robotlarının muhtemelen insanların bs dedektörlerini daha da büyük bir teste tabi tutacağı anlamına geliyor.
Bu modeller bize yalan söylemeye eğilimlidir (çünkü gerçek ile kurgu arasındaki farkı bilmezler) ve zaten lekeli ve üzücü derecede bunaltıcı bilgi ekosistemini daha da kirletmektedirler.
Bu zaten bir sorun haline geldi: ChatGPT'nin arkasındaki şirket OpenAI, Avustralyalı bir belediye başkanını rüşvet nedeniyle hapis cezasına çekmekle suçladığı için dava edilebilir. Chatbot ayrıca bir hukuk profesörünü, icat ettiği cinsel taciz skandalının bir parçası olmakla suçladı . Daha düşük riskli senaryolarda bile aynı deneyimi yaşayabilirsiniz.
Meslektaşlarımdan biri olan Joel Eastwood, ChatGPT'ye The Markup'ın güvenilir gazetecilik üretip üretmediğini sorduğunda, belirli ve tanınmış bir medya eleştirmeninin The Markup'ın "zamanımızın en önemli gazetecilik organizasyonlarından biri" olduğunu yazdığını söyledi. Açıkçası , bu ifadenin bir miktar doğruluk payı var; ancak bu gerçek bir alıntı değil.
Yapay zekanın duygusal cazibesi önyargıları ve hatta zararlı içerikleri daha da normalleştirebilir. İnternetin zararlı, ırkçı, cinsiyetçi, homofobik ve başka türlü sorun yaratan içeriklerle dolu olduğu bir sır değil. Bu tür içerik üzerinde bir dil modeli eğitirseniz, onu yeniden üretme olasılığı yüksektir.
Chatbot teknolojisinin yaratıcıları, Kenyalı işçilere, en kötü çevrimiçi içeriklerden bazılarını eğitim verilerinden ayıklamak gibi travmatik ve dehşet verici bir iş yapmaları için para ödedi. Ancak bu teknolojinin açığa çıkmasıyla birlikte, bilgisayar korsanları bunu zaten çocukların cinsel istismarına ilişkin açıklamalar da dahil olmak üzere sorunlu sonuçlar üretmek için kullandılar.
Bu teknolojilerin yaratıcıları, kısmen pazar hakimiyeti için rekabet ettikleri için son aylarda botlarını bu kadar hızlı bir şekilde kullanıma sundular. Ancak hem akademisyenler hem de teknoloji uzmanları onları bu teknolojiye yönelik çabalarını durdurmaya ve bunun neden olabileceği zararları gerçekten düşünmeye çağırıyor.
Pek çok konuşma politika ve kurumsal sorumluluk etrafında dönerken, sizin ve benim gibi sıradan tüketicilerin, bu teknolojileri daha iyi anlayarak, otomatik bir dil modeliyle sohbet ederken bs dedektörlerimizi iyi ayarlanmış tutmanın bir yolunu bulabileceğini umuyorum.
Okuduğunuz için teşekkürler. ChatGPT'nin tehlikeleri ve kendi bilgi alımınızı nasıl daha iyi denetleyeceğiniz hakkında daha fazla bilgi edinmek istiyorsanız, konuyla ilgili en sevdiğim çalışmalardan bazılarını aşağıda bulabilirsiniz.
Samimi olarak,
Lam Thuy Vo
Muhabir
İşaretleme
kaydeden Lam Thuy Vo
Burada da yayınlandı
Unsplash'ta Possessed Photography'nin fotoğrafı