X akışınızda gezinirken, iklim politikasına dair kışkırtıcı bir bakış açısına sahip bir siyasi manifesto görüyorsunuz. İyi gerekçelendirilmiş, tutkulu ve binlerce retweet topluyor. Daha sonra, bunun bir politikacı veya hatta bir insan tarafından yazılmadığını öğreniyorsunuz. Bunun yerine, internetin geniş alanlarında gözlemlediği kalıplara göre kelimeleri bir araya getirmek üzere eğitilmiş bir dil modeli olan güçlü bir yapay zeka modeli tarafından oluşturulmuş. Bu, manifesto hakkındaki hislerinizi değiştiriyor mu? Değiştirmeli mi? Ve işte anlaşmayı bozan nokta: Bu "konuşma", bir insan tarafından yazılmış gibi mi?
İnsan odaklı ifade ile makine tarafından üretilen içerik arasındaki çizgiyi ayırt etmek giderek zorlaşıyor. OpenAI'nin GPT-4'ü veya Google'ın Gemini'si gibi üretken AI modelleri yalnızca anahtar sözcükler veya basit cevaplar üretmekle kalmıyor; bütünsel anlatılar yaratıyor, argümanlar tasarlıyor ve ara sıra tartışmalara yol açıyor. Şiirler yazabiliyor, dilekçe taslakları hazırlayabiliyor veya hatta kışkırtıcı içerikler üretebiliyorlar. Ve bu da ilginç ve biraz rahatsız edici bir soruyu gündeme getiriyor: Çıktıları gerçekten "konuşma" mı? Eğer öyleyse, bu konuşma insan ifadesine sağladığımız aynı yasal korumalardan yararlanıyor mu? Yoksa AI tarafından üretilen içerik tamamen kendi kategorisine mi girmeli ve ayrı kurallara mı sahip olmalı?
Bunu yalnızca yüzeysel bir "içerik yaratıcısı" perspektifinden değil, aynı zamanda karmaşık teknik gerçekliğe, yasal çıkarımlara ve felsefi ikilemlere derinlemesine inceleyelim. Çünkü dürüst olmak gerekirse, düşündüğünüz kadar basit değil.
Öncelikle perdeyi aralayalım ve bir AI "konuşma" ürettiğinde gerçekte ne olduğunu inceleyelim. GPT-4 gibi üretken bir AI modeli özünde cümleleri havadan çekip çıkarmaz veya orijinal fikirler üretmez. Bunun yerine, istatistiksel olasılıklar üzerinde çalışır; dilin zor matematiği.
İşte nasıl çalıştığı: Yapay zeka modelleri, kitaplar, bloglar, sosyal medya paylaşımları ve internette bulunan temelde her şeyi içeren geniş veri kümeleri üzerinde eğitilir. Eğitim sırasında, kelimeler arasındaki ilişkileri anlamak için bu metinleri analiz ederler. Kelimeler, bilgisayarda tam olarak kelimeler olarak saklanmaz; küçük yapı taşları gibi olan belirteçlere dönüştürülürler. "Hızlı kahverengi tilki" gibi bir ifade, `[The]`, `[quick]`, `[brown]`, `[fox]` gibi ayrı belirteçlere bölünebilir. Daha sonra yapay zeka, hangi belirtecin diğerini takip etme olasılığının yüksek olduğunu öğrenir. Yeterli sayıda örüntüyü sindirdikten sonra, bir dizideki bir sonraki belirteci tahmin edebilir.
Bir saniyeliğine bunu düşünün: AI ne söylemek istediğini düşünmüyor; bir sonraki kelimenin matematiksel olasılığını hesaplıyor. Örneğin, ona "Hızlı kahverengi tilki zıplıyor" dediğinizde, model mantıksal bir sonraki jetonun "bittiğini" tahmin edebilir. Bu yaratıcılık veya niyet değil, sadece matematik.
Ama asıl mesele şu: Bu tahminlerin yeterli bir kısmını trilyonlarca parametre (bir modelin nasıl işleyeceğini yönlendiren devasa, karmaşık sayısal ağırlıklar) boyunca bir araya getirdiğinizde inanılmaz derecede gerçekçi bir şey elde edersiniz. Transformatör mimarileri ve gelişmiş dikkat mekanizmaları gibi teknikleri de ekleyin ve aniden iklim değişikliği hakkında bütün bir makaleye veya kayıp ve umut hakkında tam olarak gerçekleştirilmiş bir şiire bakarsınız. Bu çıktılar şok edici derecede insani hissettirir. Ama bunlar konuşma mıdır?
Konuşma, bir kavram olarak çok fazla ağırlık taşır. Sadece bir şey söylemekle ilgili değildir; söyleyecek bir şeye sahip olmakla ilgilidir. Konuşma, niyet, faaliyet ve hesap verebilirlik varsayar. Bu blogu yazdığımda, siz onlarla aynı fikirde olsanız da olmasanız da düşüncelerimi ifade ediyorum. Yanlış bilgilendirilirsem veya saldırgan olursam, söylediklerimin sonuçlarından ben sorumluyum. Adım bu gönderiye eklenmiştir. Ben düşünürüm ve bu benim ifademdir.
Ancak üretken yapay zekanın düşünceleri yoktur. Ne söylediğini veya neden söylediğini bilmez. "Elektrikli arabaların benzinli araçların yerini alması gerektiği konusunda ikna edici bir makale yazın" gibi bir komut yazdığınızda, GPT-4 temiz enerji ve jeopolitiğin artılarını ve eksilerini tartmaz. Bildiği dil kalıplarını kullanır ve girdinizi istatistiksel olarak en olası cümleyle takip eder. Yine de sihirli bir şey olur: konuşma gibi hissettirir .
Ve işler burada çetrefilleşiyor. Bir yapay zeka kamu söylemini etkileyen bir şey üretirse - diyelim ki viral hale gelen iklim yanlış bilgisi üretiyor - bu kelimeler ifade özgürlüğü yasaları kapsamında korunmalı mı? Bu fikirleri bir insanın üretmediğini biliyoruz, peki bunlardan kim, eğer varsa, sorumlu? Daha derinlemesine inceleyelim.
İşte ifade özgürlüğü tartışmasının hesap verebilirlik bilmecesine dönüştüğü yer burası: Eğer üretken yapay zeka çıktıları insan kaynaklı değilse, bu sözlerin sahibi kim olacak ve içerik hedefine ulaşamadığında kim sorumlu tutulacak?
- Geliştiriciler: OpenAI veya Google gibi şirketler genellikle sadece araçlar inşa ettiklerini savunurlar; kullanıcıların istemler aracılığıyla şekillendirdiği ve yönlendirdiği tarafsız platformlar. "Biz sadece piyanoyu eğittik," derler. "Hangi melodilerin çalınacağına karar vermek başkalarına kalmış." Ancak bu metafor işleri aşırı basitleştirir. AI çıktıları, geliştiricilerin seçtiği veri kümelerinden ve modellerini nasıl ince ayarladıklarından büyük ölçüde etkilenir. Taraflı bir veri kümesi taraflı çıktılarla sonuçlanır; zararlı bir metin ortaya çıkarsa, yaratıcılar gerçekten tarafsızlık iddia edebilir mi?
- Kullanıcılar: Peki ya istemi giren kişi? Bazıları sorumluluk almaları gerektiğini savunuyor. Yapay zekaya "aşılar hakkında sahte bilgi yayan kışkırtıcı bir makale yaz" dersem ve o da uyarsa, açıkça niyetim vardı. Ancak, kullanıcılar farkında olmadan zararlı çıktılar istediğinde veya çıktılar kullanıcının kontrolü dışındaki alanlara saptığında bu daha da zordur.
- Yapay Zekanın Kendisi: Yapay Zeka konuşmacı olarak düşünülebilir mi? Bazı fütüristler, yapay zeka sistemlerinin "Dijital Kişilik" kazandığı konusunda spekülasyonlarda bulundular ancak bu fikir oldukça sorunlu. Makinelerin niyeti yoktur, sorumluluk taşıyamazlar ve makinelere özgür konuşma haklarının genişletilmesi yasal kaos için bir alan günü yaratır.
Gerçek şu ki, hiç kimse tam sorumluluk almak istemiyor. Geliştiriciler sorumluluğu küçümsüyor, kullanıcılar bunu kasıtsız olarak görmezden geliyor ve AI, eh, sadece bir makine. Yine de, AI tarafından üretilen içeriğin aşağı yönlü etkisi muazzam olabilir.
Sorunun ağırlığını hissetmek için gerçek hayattan birkaç senaryoyu da işin içine katalım.
- Vaka 1: Nefret Söylemi
Üretken bir AI sisteminin açıkça ırkçı veya cinsiyetçi içerik ürettiğini varsayalım. OpenAI ve diğer geliştiriciler, zararı en aza indirmek için insan geri bildiriminden takviyeli öğrenme (RLHF) gibi güvenlik önlemleri yerleştirir, ancak hiçbir model mükemmel değildir. Zehirlilik yine de sızabilir. Bu olduğunda, kim suçludur? AI ne yaptığını bilmiyor. OpenAI'nin veri kümesinde bir başarısızlık mıydı? Bir insan kullanıcı isteminde sorumsuz muydu? Yoksa bu çıktıların kontrol edilmeden kalmasına mı izin veriyoruz?
- Vaka 2: Dezenformasyon
Şimdi bir AI'nın bir siyasi aday hakkında aşırı güvenilir sahte haber makaleleri ürettiğini ve sosyal medyayı doldurduğunu hayal edin. İnsan tarafından üretilen propagandanın aksine, bu yanlış bilgi asgari çabayla büyük ölçekte seri üretilebilir. Bu tür çıktılar korunan siyasi konuşma olarak nitelendirilebilir mi yoksa sıkı bir şekilde düzenlenmesi (veya tamamen yasaklanması) gereken bir kamu tehlikesi midir?
- Vaka 3: Sanatsal İfade
Peki ya AI sanat veya şiir yarattığında? Özgür konuşma ilkeleri kapsamında "ifade" olarak korunuyor mu? Ve AI sanat yarışmalarını kazandığında veya yaratıcı çalışmalar ürettiğinde, bu çıktıların hakları kime ait oluyor? Geliştiriciye mi? Kullanıcıya mı? Yoksa kamu malı mı?
Cevaplar belirsizdir, bu yüzden mahkemeler ve politikacılar hazırlıksız yakalanır. Bunlar, özgür konuşma yasaları yazıldığında hiç kimsenin tahmin etmediği uç vakalardır.
Üretken AI çıktılarını korunan konuşma olarak değil, "simüle edilmiş konuşma" olarak kategorize etmek yararlı olabilir. Bu, AI çıktılarının insan ifadesini yansıtsa da, "konuşma" olarak adlandırdığımız şeyi gerçekten tanımlayan niyet ve hesap verebilirlikten yoksun olduğunu ortaya koyacaktır. Bu yeni kategoriyle, insanların özgür konuşma haklarını baltalamadan AI tarafından üretilen içeriği düzenleyebiliriz.
Örneğin:
- Yapay zeka tarafından üretilen çıktıların, makine tarafından üretildiğini belirtmek için meta veri etiketlemesi gerekebilir (örneğin, "GPT-4 ile üretildi").
- Zarar oranı yüksek çıktılar (örneğin yanlış bilgilendirme, aşırılıkçı propaganda) seçimler gibi yüksek riskli bağlamlarda özel incelemeye veya hatta kısıtlamalara maruz kalabilir.
- Büyük ölçekli dezenformasyon kampanyalarının önlenmesi amacıyla büyük ölçekte yapay zeka içeriği üreten API'ler "etik kısıtlamaya" tabi tutulabilir.
Böyle bir çerçeve bize, yapay zeka çıktılarını gerçekte oldukları gibi, yani özgür ifadeler olarak değil, güçlü araçlar olarak ele alma olanağı tanıyacaktır.
Eğer temkinli görünüyorsam, bunun nedeni bu tartışmanın "konuşma nedir" hakkındaki yüzeysel tartışmalardan çok daha büyük risklere sahip olmasıdır. Üretken AI çıktılarını insan konuşmasıyla eşitlemek, niyet, yaratıcılık ve hesap verebilirlikle bağlantılı bir eylem olan özgür konuşmanın amaçlarını önemsizleştirme riski taşır. Konuşmanın doğası gereği bir insan girişimi olduğuna inanıyorum. Sorumluluk ve fikirlerin amaçlı alışverişi üzerinde gelişir. Makineler, çıktıları bizimkileri taklit etse bile, bu ruhu paylaşmazlar.
Makine tarafından üretilen kelimeleri insan ifadesini savunan aynı yasalar altında korumaya başladığımız anda, özgür konuşmanın anlamını sulandırırız. Yapay zekayı olduğu gibi kutlayalım - olağanüstü bir araç - ama aynı zamanda erişiminin nerede durması gerektiğini de kabul edelim. Sonuçta, özgür konuşma insanlıkla ilgilidir, sinir ağındaki olasılıklarla değil.
Peki, sizin fikriniz nedir? Kaygan bir zeminde miyiz yoksa ben mi fazla temkinli davranıyorum? Bana bildirin—sadece siz, bir yapay zeka botu değil, araya giren kişi olduğunuzdan emin olun :)