Yapay zekayla dolu bir geleceğe doğru hızla ilerlerken, birçok yorumcu yüksek sesle çok hızlı mı ilerlediğimizi merak ediyor. Teknoloji devleri, araştırmacılar ve yatırımcıların hepsi en gelişmiş yapay zekayı geliştirmek için çılgın bir yarış içinde görünüyor.
Ancak endişe duyanlar, riskleri göz önünde bulunduruyorlar mı diye soruyorlar .
Bu soru tamamen tartışmalı değil ve emin olun ki, distopik olasılıkları ve bunlardan kaçınmanın yollarını düşünen yüzlerce keskin beyin var.
Ancak gerçek şu ki gelecek bilinmiyor; bu güçlü yeni teknolojinin etkileri, internetin ortaya çıkışında sosyal medyanın olduğu kadar hayal edilemez.
İyisi de olacak, kötüsü de olacak ama geleceğimizde güçlü yapay zeka sistemleri, torunlarımızın geleceğinde ise çok daha güçlü yapay zekalar olacak. Durdurulamaz ama anlaşılabilir.
Bu yeni teknoloji hakkında, yan ürünleri muhtemelen dünyadaki en kârlı kuruluşlar arasında yer alacak kar amacı gütmeyen yapay zeka araştırma enstitüsü OpenAI'nin kurucu ortağı Ilya Stutskeve r ile konuştum.
Ilya ile konuşmam, OpenAI'nin dev yapay zeka sisteminin en son versiyonu olan ve herhangi bir insanın hayatı boyunca okuyabileceği milyarlarca kelimeden fazla metin tüketen GPT-4'ün piyasaya sürülmesinden kısa bir süre önceydi.
GPT, Üretken Önceden Eğitimli Transformatör anlamına gelir; bu Homerik Polyphemus'u anlamada üç önemli kelimedir. Transformer devin kalbindeki algoritmanın adıdır.
Ön eğitim, devin muazzam bir metin külliyatı ile eğitilmesini, ona dilin temel kalıplarını ve ilişkilerini öğretmeyi, kısacası ona dünyayı anlamayı öğretmeyi ifade eder.
Üretken, yapay zekanın bu bilgi tabanından yeni düşünceler yaratabileceği anlamına gelir.
Yapay zeka zaten hayatımızın birçok yönünü ele geçirdi. Ama gelecek olan çok daha gelişmiş, çok daha güçlü. Bilinmeyen bir bölgeye doğru ilerliyoruz. Ve bunun ne anlama geldiğini düşünmek için biraz zaman ayırmaya değer.
Ancak aşırı tepki vermemek, üzerimizde parlayan parlak güneşten kaplumbağalar gibi geri çekilmemek de önemlidir. Homeros'un destansı şiiri "Odyssey"de kiklop Polyphemus, Odysseus ve mürettebatını onları yemek niyetiyle mağarasında tuzağa düşürür.
Ancak Odysseus devi kör edip kaçmayı başarır. Yapay zeka bizi yemeyecek.
Ilya Sutskever, OpenAI'nin kurucu ortağı ve baş bilim insanıdır ve büyük dil modeli GPT-4 ile onun halka açık ürünü ChatGPT'nin arkasındaki başlıca beyinlerden biridir; bunun dünyayı değiştirdiğini söylemenin abartı olacağını düşünmüyorum.
Bu Ilya'nın dünyayı değiştirdiği ilk sefer değil. 2012'de dramatik performansı bilim camiasını hayrete düşüren ve derin öğrenme devrimini başlatan evrişimli sinir ağı AlexNet'in ana itici gücüydü.
Aşağıda konuşmamızın düzenlenmiş bir metni bulunmaktadır.
CRAIG: Ilya, Rusya'da doğduğunu biliyorum. Eğer ilk dürtünüz buysa, sinir bilimi ya da her neyse, sizi bilgisayar bilimiyle ilgilenmeye iten şey neydi?
İLYA: Aslında ben Rusya'da doğdum. İsrail'de büyüdüm ve gençliğimde ailem Kanada'ya göç etti. Ailem küçük yaşlardan beri yapay zekaya ilgi duyduğumu söylüyor. Ayrıca bilinç beni de çok motive etti. Bundan çok rahatsız oldum ve onu daha iyi anlamama yardımcı olabilecek şeyleri merak ettim.
Geoff Hinton'la (derin öğrenmenin kurucularından biri, GPT-4'ün arkasındaki yapay zeka türü ve o zamanlar Toronto Üniversitesi'nde profesördü) 17 yaşımdayken çok erken çalışmaya başladım. Çünkü Kanada'ya taşındık ve ben hemen Toronto Üniversitesi'ne katılmayı başardı. Makine öğrenimi yapmayı gerçekten istiyordum çünkü bu, o zamanlar tamamen erişilemez olan yapay zekanın en önemli yönü gibi görünüyordu.
Yıl 2003'tü. Bilgisayarların öğrenebileceğini varsayıyorduk, ancak 2003'te bilgisayarların öğrenemeyeceğini kabullendik. O zamanlar yapay zekanın en büyük başarısı, [IBM'in] satranç oynama motoru olan (1997'de dünya şampiyonu Garry Kasparov'u yenen) Deep Blue idi.
Ama işte burada bir oyun var, bu araştırma var ve bir pozisyonun diğerinden daha iyi olup olmadığını belirlemenin basit bir yolu var. Ve bunun gerçek dünyaya uygulanabileceğine gerçekten inanmıyordu çünkü hiçbir öğrenme yoktu. Öğrenmek büyük bir gizemdi. Ve öğrenmeye gerçekten ama gerçekten ilgi duyuyordum. Şans eseri Geoff Hinton üniversitede profesördü ve neredeyse hemen birlikte çalışmaya başladık.
Peki istihbarat nasıl çalışıyor? Bilgisayarların biraz da olsa akıllı olmasını nasıl sağlayabiliriz? Yapay zekaya çok küçük ama gerçek bir katkıda bulunmak gibi çok açık bir niyetim vardı. Yani motivasyon şuydu: Zekanın nasıl çalıştığını anlayabiliyor muydum? Ve ayrıca buna bir katkınız var mı? Bu benim ilk motivasyonumdu. Bu neredeyse tam 20 yıl önceydi.
Özetle, şunu fark ettim ki, eğer insanların yaptığı görme gibi bazı karmaşık görevleri belirleyen, yeterince büyük bir veri kümesi üzerinde geniş ve derin bir sinir ağı üzerinde geniş bir sinir ağı eğitirseniz, o zaman mutlaka başarılı olursunuz. Ve bunun mantığı indirgenemezdi; insan beyninin bu görevleri çözebildiğini ve hızlı bir şekilde çözebildiğini biliyoruz. Ve insan beyni sadece yavaş nöronlardan oluşan bir sinir ağıdır.
O zaman daha küçük ama ilişkili bir sinir ağını alıp onu veriler üzerinde eğitmemiz gerekiyor. Bilgisayarın içindeki en iyi sinir ağı da beynimizde bu görevi yapan sinir ağıyla ilişkili olacaktır.
CRAIG: 2017'de, kişisel dikkati ve dönüştürücüleri tanıtan "İhtiyacınız Olan Tek Şey Dikkat" makalesi yayınlandı. GPT projesi hangi noktada başladı? Transformatörler hakkında bir sezgi var mıydı?
ILYA: Yani bağlam açısından, OpenAI'de ilk günlerden beri ihtiyacınız olan tek şeyin bir sonraki şeyi tahmin etmek olduğu fikrini araştırıyorduk. Bunu zamanın çok daha sınırlı sinir ağlarıyla araştırıyorduk, ancak umut şuydu ki, bir sonraki kelimeyi tahmin edebilen bir sinir ağınız varsa, denetimsiz öğrenmeyi çözecektir. Yani GPT'lerden önce denetimsiz öğrenme, makine öğreniminin Kutsal Kasesi olarak kabul ediliyordu.
Artık tamamen çözüldü ve kimse bundan bahsetmiyor bile ama bu bir Kutsal Kase'ydi. Çok gizemliydi ve biz de bu fikri araştırıyorduk. Bir sonraki kelimeyi yeterince iyi tahmin etmenin size denetimsiz öğrenme olanağı sağlayacağı konusunda gerçekten heyecanlandım.
Ancak sinir ağlarımız bu göreve hazır değildi. Tekrarlayan sinir ağlarını kullanıyorduk. Transformatör ortaya çıktığında, kelimenin tam anlamıyla makale yayınlanır yayınlanmaz, kelimenin tam anlamıyla ertesi gün, transformatörlerin tekrarlayan sinir ağlarının, uzun vadeli bağımlılıkların öğrenilmesinin sınırlamalarına hitap ettiği benim ve bizim için açıktı.
Bu teknik bir şey. Ama hemen transformatörlere geçtik. Ve böylece, yeni ortaya çıkan GPT çabası transformatörle devam etti. Daha iyi çalışmaya başladı ve siz onu büyüttünüz, sonra da büyütmeye devam ettiniz.
Ve sonunda GPT-3'e ve esasen bugün bulunduğumuz yere yol açan şey de budur.
CRAIG: Büyük dil modellerinin mevcut sınırlaması, bilgilerinin eğitim aldıkları dilde yer almasıdır. Ve sanırım herkesin kabul ettiği gibi insan bilgisinin çoğu dilsel değildir.
Amaçları istemin istatistiksel tutarlılığını sağlamaktır. Dilin ilgili olduğu gerçekliğe dair temel bir anlayışa sahip değiller. ChatGPT'ye kendim hakkında sorular sordum. Gazeteci olduğumu, çeşitli gazetelerde çalıştığımı kabul etti ama hiç kazanmadığım ödüllerden söz edip durdu. Ve hepsi çok güzel okunuyor, ancak çok azı altta yatan gerçekliğe bağlı. İleriye dönük araştırmanızda bu konuyu ele almak için yapılan bir şey var mı?
İLYA: Bugün gördüğümüz bu kısıtlamaların iki yıl sonra da devam edeceğinden ne kadar eminiz? Ben o kadar emin değilim. Sorunun bir kısmı hakkında yapmak istediğim başka bir yorum daha var; bu modeller sadece istatistiksel düzenlilikleri öğreniyor ve bu nedenle dünyanın doğasının ne olduğunu gerçekten bilmiyorlar.
Benim bundan farklı bir görüşüm var. Başka bir deyişle, istatistiksel düzenlilikleri öğrenmenin göründüğünden çok daha önemli olduğunu düşünüyorum.
Tahmin aynı zamanda istatistiksel bir olgudur. Ancak tahminde bulunmak için verileri üreten temel süreci anlamanız gerekir. Verileri üreten dünya hakkında giderek daha fazla bilgi sahibi olmanız gerekiyor.
Üretken modellerimiz olağanüstü derecede iyi hale geldikçe, iddia ediyorum ki, dünyayı ve onun pek çok inceliğini şok edici derecede anlayacaklar. Metnin merceğinden görülen dünyadır. İnsanların internette ifade ettiği şekliyle dünyanın metin alanına yansıtılması yoluyla dünya hakkında giderek daha fazla şey öğrenmeye çalışır.
Ama yine de bu metin zaten dünyayı ifade ediyor. Ve size bir örnek vereceğim; gerçekten etkileyici ve etkileyici olduğunu düşündüğüm güncel bir örnek. [ChatGPT] ile, kullanıcı Google'ın Bing'den daha iyi bir arama motoru olduğunu düşündüğünü söylediğinde [ChatGPT]'nin kavgacı ve saldırgan hale geldiği bu gerçekten ilginç etkileşimi gördüm.
Bu fenomen hakkında düşünmenin iyi bir yolu nedir? Bu ne anlama geliyor? Bunun sadece insanların ne yapacağını ve bunu yapacağını tahmin etmek olduğunu söyleyebilirsiniz ki bu doğrudur. Ama belki de artık bu sinir ağlarının davranışlarını anlamak için psikoloji dilinin benimsenmeye başladığı bir noktaya ulaşıyoruz.
Şimdi sınırlamalardan bahsedelim. Gerçekten de bu sinir ağlarının halüsinasyona eğilimli olduğu bir gerçektir. Bunun nedeni, bir dil modelinin dünyayı öğrenmek için harika olması, ancak iyi çıktılar üretmesi açısından biraz daha az harika olmasıdır. Ve bunun çeşitli teknik nedenleri var. Bir dil modelinin dünyayı öğrenmede, fikirlerin, kavramların, insanların, mevcut süreçlerin inanılmaz temsillerini öğrenmede çok daha iyi olmasının teknik nedenleri vardır, ancak çıktıları umduğunuz kadar iyi değildir veya daha doğrusu, olabildikleri kadar iyi.
İLYA: Bu yüzden mesela ChatGPT gibi bir dil modeli olan sistem için ek bir takviyeli öğrenme eğitim süreci var. Biz buna İnsan Geri Bildiriminden Güçlendirilmiş Öğrenme diyoruz.
Eğitim öncesi süreçte dünyaya dair her şeyi öğrenmek istediğinizi söyleyebiliriz. İnsan geri bildirimlerinden pekiştirmeli öğrenmeyle çıktıları önemsiyoruz. Çıktının uygunsuz olduğu durumlarda bunu bir daha yapma diyoruz. Çıktının anlamlı olmadığı her defasında, bunu bir daha yapmayın.
Ve iyi çıktılar üretmeyi hızla öğrenir. Ancak bu, çıktıların düzeyidir ve dil modeli ön eğitim sürecinde durum böyle değildir.
Halüsinasyonlar noktasına gelindiğinde, zaman zaman bir şeyler uydurma eğilimi vardır ve bu da onların kullanışlılığını büyük ölçüde sınırlayan bir şeydir.
Ancak, insan geri bildirim adımından sonraki bu takviyeli öğrenmeyi basitçe geliştirerek ona halüsinasyon görmemeyi öğretebileceğimiz konusunda oldukça umutluyum. Şimdi diyebilirsiniz ki gerçekten öğrenecek mi? Cevabım şu; hadi öğrenelim.
Bugün işleri yapma şeklimiz, sinir ağımıza nasıl davranılacağını, ChatGPT'ye nasıl davranılacağını öğretecek insanları işe almaktır. Siz sadece onunla etkileşime girersiniz ve o sizin tepkinizden şunu anlar, ah, istediğiniz şeyin bu olmadığı sonucunu çıkarır. Çıktısından memnun değilsiniz.
Bu nedenle çıktı iyi değildi ve bir dahaki sefere farklı bir şeyler yapması gerekiyor. Bu yaklaşımın halüsinasyonları tamamen ortadan kaldırma ihtimalinin oldukça yüksek olduğunu düşünüyorum.
CRAIG: Yann LeCun (Facebook'un baş yapay zeka bilimcisi ve derin öğrenmenin bir diğer öncüsü), büyük dil modellerinde eksik olanın, dil modelinin referans alabileceği, dilsel olmayan bu temel dünya modeli olduğuna inanıyor. Bunun hakkında ne düşündüğünüzü ve bunu hiç araştırıp keşfetmediğinizi duymak istedim.
ILYA: Yann LeCun'un teklifini inceledim ve orada bir takım fikirler var, bunlar farklı dillerde ifade ediliyor ve mevcut paradigmadan belki küçük farklılıklar var, ama bana göre bunlar çok önemli değil.
İlk iddia, bir sistemin dünya hakkında sadece metinden bilgi sahibi olmadığı çok modlu bir anlayışa sahip olmasının arzu edilir olduğudur.
Ve bununla ilgili benim yorumum, çok modlu anlayışın arzu edilir olduğu yönünde olacaktır çünkü dünya hakkında daha fazla şey öğrenirsiniz, insanlar hakkında daha fazla şey öğrenirsiniz, onların durumları hakkında daha fazla şey öğrenirsiniz ve böylece sistem yapması gereken görevin ne olduğunu anlayabilecektir. çöz ve insanlar ve istediklerini daha iyi hale getir.
Bu konuda oldukça fazla çalışma yaptık, özellikle de iki ana sinir ağı şeklinde. Birinin adı Clip, birinin adı Dall-E. Ve her ikisi de bu çok modlu yöne doğru ilerliyor.
Ama şunu da söylemek istiyorum ki ben bu durumu ya-ya da ikili olarak görmüyorum, eğer vizyonunuz yoksa, dünyayı görsel olarak ya da videodan anlamıyorsanız o zaman işler yürümez.
Ve bunun için durumu ortaya koymak isterim. Dolayısıyla, bazı şeyleri resimlerden ve diyagramlardan öğrenmenin çok daha kolay olduğunu düşünüyorum, ancak bunları yine de yalnızca metinden öğrenebileceğinizi iddia ediyorum, ancak daha yavaş. Ve size bir örnek vereceğim. Renk kavramını düşünün.
Elbette renk kavramını yalnızca metinden öğrenemezsiniz, ancak gömmelere baktığınızda, gömme kavramını açıklamak için küçük bir yoldan sapmam gerekiyor. Her sinir ağı, yüksek boyutlu vektörler olan temsiller, 'yerleştirmeler' yoluyla kelimeleri, cümleleri, kavramları temsil eder.
Ve bu yüksek boyutlu vektörlere bakabiliriz ve neyin neye benzer olduğunu görebiliriz; ağ bu kavramı veya bu kavramı nasıl görüyor? Ve böylece renklerin yerleşimlerine bakabiliriz ve morun kırmızıdan çok maviye benzediğini ve kırmızının mordan çok turuncuya benzediğini bilir. Bütün bunları sadece metinden biliyor. Nasıl olabilir?
Eğer görüşünüz varsa, renkler arasındaki ayrımlar hemen üzerinize atlar. Bunları hemen algılıyorsunuz. Oysa metin söz konusu olduğunda bu daha uzun sürer, belki nasıl konuşulacağını biliyorsunuzdur ve sözdizimini, kelimeleri ve dilbilgisini zaten anlıyorsunuz ve ancak çok sonra renkleri gerçekten anlamaya başlıyorsunuz.
Multimodalitenin gerekliliğiyle ilgili söylemek istediğim şu: Gerekli olmadığını ama kesinlikle faydalı olduğunu iddia ediyorum. Bunun takip edilmesi gereken iyi bir yön olduğunu düşünüyorum. Ben bunu bu kadar katı iddialarda görmüyorum.
Dolayısıyla, [LeCun'un] makalesindeki öneri, en büyük zorluklardan birinin, kendileri hakkında belirsizlik içeren yüksek boyutlu vektörleri tahmin etmek olduğunu iddia ediyor.
Ancak şaşırtıcı bulduğum veya en azından makalede kabul edilmeyen bir şey, mevcut otoregresif transformatörlerin zaten bu özelliğe sahip olmasıdır.
Size iki örnek vereceğim. Bunlardan biri, bir kitapta bir sayfa verildiğinde, bir sonraki sayfayı tahmin etmektir. Bunu takip eden pek çok olası sayfa olabilir. Bu çok karmaşık, yüksek boyutlu bir alandır ve onlar bununla gayet iyi başa çıkıyorlar. Aynı durum görseller için de geçerlidir. Bu otoregresif transformatörler görüntüler üzerinde mükemmel çalışır.
Örneğin OpenAI'de olduğu gibi iGPT üzerinde de çalışmalar yaptık. Az önce bir transformatör aldık ve onu piksellere uyguladık, süper iyi çalıştı ve çok karmaşık ve incelikli şekillerde görüntüler üretebildi. Dall-E 1 ile yine aynı şey.
Makalenin, mevcut yaklaşımların yüksek boyutlu dağılımları tahmin etmeyle baş edemediği konusunda güçlü bir yorum yaptığını düşündüğüm kısım - bence kesinlikle başarabilirler.
CRAIG: ChatGPT ile çalışan bir insan eğitmenleri ordusuna sahip olma fikri veya takviyeli öğrenmeyle etkili bir şekilde rehberlik edecek geniş bir dil modeli, sadece sezgisel olarak, bu, temeldeki temel hakkında bir model öğretmenin etkili bir yolu gibi görünmüyor. dilinin gerçekliği.
İLYA: Sorunun üslubuna katılmıyorum. Önceden eğitilmiş modellerimizin, altta yatan gerçeklik hakkında bilmeleri gereken her şeyi zaten bildiklerini iddia ediyorum. Zaten bu dil bilgisine sahipler ve aynı zamanda dünyada var olan ve bu dili üreten süreçler hakkında da büyük miktarda bilgiye sahipler.
Büyük üretken modellerin verileri hakkında öğrendiği şey - ve bu durumda büyük dil modelleri - bu verileri üreten gerçek dünya süreçlerinin sıkıştırılmış temsilleridir; bu sadece insanlar ve onların düşünceleriyle ilgili bir şey değil, duygularıyla ilgili bir şey anlamına gelir. ama aynı zamanda insanların içinde bulunduğu durum ve aralarındaki etkileşimlerle de ilgili bir şeyler.
Bir kişinin içinde bulunabileceği farklı durumlar. Bunların hepsi, metni üretmek için sinir ağı tarafından temsil edilen sıkıştırılmış sürecin bir parçasıdır. Dil modeli ne kadar iyi olursa, üretken model de o kadar iyi olur, aslına uygunluk ne kadar yüksek olursa bu süreci o kadar iyi yakalar.
Şimdi, sizin deyiminizle, öğretmenler ordusu aslında bu öğretmenler de yapay zeka yardımını kullanıyor. O öğretmenler yalnız değil. Bizim araçlarımızla çalışıyorlar ve işin çoğunu araçlar yapıyor. Ancak gözetim altında olmanız gerekir; İnsanların davranışı gözden geçirmesine ihtiyacınız var çünkü sonuçta çok yüksek bir güvenilirlik düzeyine ulaşmak istiyorsunuz.
Ortaya çıkan dil modelinin mümkün olduğu kadar iyi bir şekilde işlemesini sağlamak için bunu mümkün olduğu kadar verimli ve kesin hale getirmek için gerçekten çok fazla motivasyon var.
İLYA: Yani evet, modelin arzu ettiği davranışı öğreten insan öğretmenler var. Yapay zeka sistemlerini kullanma biçimleri sürekli artıyor, dolayısıyla kendi verimlilikleri de artmaya devam ediyor.
Dünyada nasıl iyi davranılacağına dair bir eğitim sürecinden farklı değil.
Modelin halüsinasyonun hiçbir zaman sorun olmadığını bilmesini sağlamak için ek eğitim yapmamız gerekiyor. Ve bunu öğretecek şey, takviyeli öğrenme insan öğretmen döngüsü veya başka bir değişkendir.
Burada bir şeyler işe yaramalı. Ve bunu çok yakında öğreneceğiz.
CRAIG: Bu nereye gidiyor? Ne, şu anda araştırmaya mı odaklandın?
İLYA: Üzerinde çalıştığım spesifik araştırma hakkında ayrıntılı olarak konuşamam ama bazı araştırmalardan genel hatlarıyla bahsedebilirim. Bu modelleri daha güvenilir, daha kontrol edilebilir hale getirmek, ders verilerinden daha hızlı öğrenmelerini sağlamak ve daha az talimat vermekle çok ilgileniyorum. Onları öyle yapın ki halüsinasyon görmesinler.
CRAIG: Daha fazla ölçeklenebilmek için daha hızlı işlemcilere ihtiyacımız olduğuna dair bir yorum yaptığınızı duydum. Ve öyle görünüyor ki, modellerin ölçeklendirilmesinin görünürde sonu yok, ancak bu modelleri eğitmek için gereken güç sınırına, en azından sosyal olarak kabul edilen sınıra ulaşıyoruz.
İLYA: Bahsettiğiniz yorumu tam olarak hatırlamıyorum ama siz her zaman daha hızlı işlemciler istiyorsunuz. Tabii ki güç artmaya devam ediyor. Genel anlamda maliyet artıyor.
Soracağım soru, maliyetin büyük olup olmadığı değil, bu maliyeti ödeyerek elde ettiğimiz şeyin maliyetten daha ağır olup olmadığıdır. Belki tüm bu bedeli ödersiniz ve hiçbir şey alamazsınız, o zaman evet, buna değmez.
Ama eğer çok yararlı, çok değerli bir şey, sahip olduğumuz ve gerçekten çözülmesini istediğimiz birçok sorunu çözebilecek bir şey alırsanız, o zaman maliyet haklı çıkarılabilir.
CRAIG: Gördüğüm bir noktada demokrasiden ve yapay zekanın demokrasi üzerindeki etkisinden bahsetmiştin.
İnsanlar bana, çözülemez gibi görünen çatışmaların olduğu bir günden, eğer yeterli veriye ve yeterince büyük bir modele sahipseniz, modeli veriler üzerinde eğitebileceğinizi ve herkesi tatmin edecek en uygun çözümü bulabileceğini söylediler.
İnsanların toplumu yönetmesine yardımcı olmak açısından bunun nereye varabileceğini düşünüyor musunuz?
İLYA: Bu çok büyük bir soru çünkü çok daha geleceğe dönük bir soru. Modellerimizin şu anda olduğundan çok daha yetenekli hale gelmelerini sağlayacak birçok yol olduğunu düşünüyorum.
Hükümetlerin bu teknolojiyi çeşitli türlerde tavsiye kaynağı olarak nasıl kullanacakları tam olarak tahmin edilemez.
Demokrasi meselesine gelince, gelecekte olabileceğini düşündüğüm şey şu; bu sinir ağlarına sahip olduğunuz için ve bunlar çok yaygın olacak ve toplumda çok etkili olacaklar. Diyelim ki bir ülkenin vatandaşlarının sinir ağına işlerin nasıl olmasını istediklerine dair bazı bilgiler sağladığı bir tür demokratik sürecin arzu edilir olduğunu buldum. Bunun olacağını hayal edebiliyordum.
Bu belki de demokrasinin çok yüksek bant genişliğine sahip bir biçimi olabilir; her vatandaştan çok daha fazla bilgi alıp bunları bir araya toplayarak bu tür sistemlerin tam olarak nasıl hareket etmesini istediğimizi belirleyebilirsiniz. Şimdi pek çok soruyu gündeme getiriyor, ancak bu gelecekte olabilecek bir şey.
Peki tüm değişkenleri analiz etmek ne anlama geliyor? Sonunda, bu değişkenlerin gerçekten önemli göründüğünü söylediğiniz yerde yapmanız gereken bir seçim olacaktır. Derinlere inmek istiyorum. Çünkü yüz kitap okuyabilirim ya da bir kitabı çok yavaş ve dikkatli okuyup ondan daha fazlasını elde edebilirim. Yani bunun bir unsuru olacak. Ayrıca, her şeyi bir anlamda anlamanın muhtemelen temelde imkansız olduğunu düşünüyorum. Hadi biraz daha kolay örnekler alalım.
Toplumda herhangi bir karmaşık durum olduğunda, hatta bir şirkette, hatta orta ölçekli bir şirkette bile, bu zaten herhangi bir bireyin kavrayışının ötesindedir. Ve eğer yapay zeka sistemlerimizi doğru şekilde kurarsak, yapay zekanın hemen hemen her durumda inanılmaz derecede yararlı olabileceğini düşünüyorum.
Craig S. Smith, The New York Times'ın eski muhabiri ve yöneticisidir. Eye on AI adlı podcast'in sunucusudur.
Burada da yayınlandı