paint-brush
Sorun Makineler Değil, Aptal - Bu Bizim Sosyo-politik-Ekonomik Sistemimizile@djcampbell
890 okumalar
890 okumalar

Sorun Makineler Değil, Aptal - Bu Bizim Sosyo-politik-Ekonomik Sistemimiz

ile DJCampbell13m2023/08/07
Read on Terminal Reader
Read this story w/o Javascript

Çok uzun; Okumak

Süper akıllı bir yapay zeka, gezegendeki tüm canlıları koruma konusunda bizden daha iyi olmalı çünkü bizden daha akıllı.
featured image - Sorun Makineler Değil, Aptal - Bu Bizim Sosyo-politik-Ekonomik Sistemimiz
DJCampbell HackerNoon profile picture
0-item

Yapay zeka ve onun insanlık üzerindeki potansiyel etkisi hakkında çok fazla aşırı konuşma var. Yapay Zeka Riski Merkezi tarafından dile getirilen kaygıları tek tek ele alarak bundan mümkün olduğunca kaçınmaya çalışacağım ve ardından herkesi en çok korkutan konuyu ele alacağım: kötü niyetli "bağlantısız" bir süper akıllı AGI (Yapay Genel İstihbarat) veya ASI (Yapay Bilinçli Zeka).


Yapay zeka ve bilgi teknolojisi endüstrilerindeki uzmanlar arasında bile görüşlerde güçlü bir bölünme olduğu görülüyor. Bazıları mevcut yapay zekayı, eğitimi uzun zaman alan ve hala birçok hata yapan, o kadar da gelişmiş olmayan bir sonraki kelime tahmincisi olarak görüyor. Diğerleri gerçekten yeni bir şey yaratmış olabileceğimize inanıyor; sadece zeka değil, aynı zamanda zihin! Kendi beynimizi taklit ederek dünyadaki en güçlü şeyi yaratabiliriz ve bu da sonumuzu getirebilir.


En büyük endişemizin YGZ'nin en kötümüz gibi olacağı yönünde olduğunu belirterek başlayacağım: gezegene hükmetmek, daha az zeki türleri öldürmek ve hepsine hükmetmek istemek. Ancak aslında o kadar da kötü değiliz. Hiyerarşik sistemlerimiz, kurumsal vekalet görevlerimiz (şirketler ve birçok yönetişim sistemi insanın gelişmesiyle uyumlu değildir) ve rekabetçi, bencil liderlerimiz öyledir. Ama çoğumuz aslında iyiyiz. İnsanlar bağlantısızlıktan bahsettiklerinde, dünyaya hükmetmek isteyen azınlığın değil, çoğunluğun iyiliğinden bahsediyorlar.


Yapay Zeka Risk Merkezi'nin endişelerini tek tek ele alalım ve büyük meseleyi en son ele alalım.


  1. Silahlanma


Kötü niyetli aktörler yapay zekayı son derece yıkıcı olacak şekilde yeniden tasarlayabilir, kendi başına varoluşsal bir risk sunabilir ve siyasi istikrarsızlaştırma olasılığını artırabilir. Örneğin, derin takviyeli öğrenme yöntemleri uygulanmıştır. hava savaşı, ve makine öğrenimi ilaç keşif araçları, kimyasal silahlar .


Nükleer savaş başlığından bir kova suya kadar her şey silah haline getirilebilir. Silah kullanımına karşı kurallarımız var ve insanlara silahla zarar vermenin cezası var. Buna mutlaka bazı yapay zeka sistemlerini de dahil etmemiz lazım ama bunun genel erişime engel olduğunu düşünmüyorum.


Geçtiğimiz 15 yılın en büyük teknolojik icatlarından biri, yapay zeka tehdidinin çoğuna çözüm olabilir: Merkezi Olmayan Defter Teknolojisi (DLT). Yapay zekanın silah haline getirilmiş gücünün büyük bir kısmı, fiziksel sistemlerimizin bilgisayar kodu tarafından kontrol edilmesinden ve bu bilgisayarların internet üzerinden ağa bağlanmasından kaynaklanmaktadır. Bu riski azaltmanın bir yolu (ki bu zaten siber saldırı riskini azaltmak için yapılıyor) gerekli sistemlerin bağlantısını kesmektir. İnternette bilgi paylaşmalıyız ancak fiziksel sistemlerimizi kalıcı olarak birbirine bağlamamalıyız. Bulut bilişim burada bir sorun ve belki de bundan uzaklaşmanın zamanı gelmiştir.


Yapay zeka kontrollü savaş uçakları, bombalı drone'lar, denizaltılar vs. gerçekten yasaklanmalı. Kabul edelim, insanlı olanlar zaten yasaklanmalı çünkü onlar milyonlarca insanın ölümünden sorumlu. Bu, tekrar tekrar ortaya çıkacak olan diğer sorunun altını çiziyor; konu yapay zeka değil, mevcut güç yapılarımızdır. Daha eşit, daha az bencil, daha az rekabetçi ve daha az hiyerarşik bir dünyaya yeni teknolojiler bıraksak daha iyi olurdu. Liderlerin gücü elinde tutmak için savaşmadığı ve ortalama insanların hayatta kalmak için para kazanmasına gerek olmadığı bir yer.


Evet yapay zeka öldürmemizi kolaylaştıracak ama aynı zamanda herkes için ucuz bir koruma yöntemi de olabilir. Takip kameralarını engellemek ve kötü niyetli dronları engellemek için kendi dronunuzun olduğunu hayal edin. Ayrıca bilgi teknolojisi ucuz olduğu için çoğunluğu azınlığa karşı güçlendirebilir. Nükleer silahlar öyle değil.


Ayrıca, ülkeden ülkeye bakıldığında yapay zeka bilgi teknolojisinin ucuzluğu, askeriyenin oyununu oldukça hızlı bir şekilde dengeleyecektir. Bu, kazanamayacağınız için kavga etmenin hiçbir anlamının olmadığı klasik kısa mesaj senaryosuna yol açar.


  1. Yanlış bilgi


Yapay zeka tarafından üretilen yanlış bilgi ve ikna edici içerik seli, toplumu zamanımızın önemli zorluklarıyla baş etme konusunda daha az donanımlı hale getirebilir.


Buna zaten sahibiz. Hatta bu tufan bizi kimi veya neyi dinlediğimiz konusunda daha bilinçli kılabilir.


  1. Proxy Oyun


Hatalı hedeflerle eğitilen yapay zeka sistemleri, bireysel ve toplumsal değerlerin pahasına hedeflerine ulaşmanın yeni yollarını bulabilir.


Yapay Zeka Riski Merkezi, içerik önermek için sosyal medya tarafından kullanılan yapay zeka algoritmaları örneğini kullanıyor. Bunların amacı izlenme süresini artırmaktı ama aynı zamanda insanları benzer ancak daha aşırı içerikli tavşan deliklerine göndererek radikalleştirdiler.


Burada iki ciddi sorun var:

  • Yapay zeka sistemleri doğrusal doğru/yanlış problemleri üzerinde eğitilir ve bu problemler için tasarlanmıştır.
  • Yapay zekadan yapmasını istediğimiz çoğu şey doğası gereği zararlıdır; birinin dikkatini çekmek, tıklamaları artırmak, karı en üst düzeye çıkarmak, varsayılanları azaltmak, bana oy vermesini sağlamak vb. Yapay zekanın bu görevleri iyi yapması veya öngörülemeyen zarara neden olması, yapay zekadan çok uygulayıcılara bir yansımasıdır.


Daha önceProof of Stake'e karşı yazdığım bir makalede, bağış istemek için orantılı bir ücret ödenmesi gibi dar parasal ödüllerle insanları teşvik etmenin, hayırseverlik konusundaki içsel motivasyonu ortadan kaldırabileceğini ve koleksiyoncunun daha az almasına neden olabileceğini yazmıştım. bağışçının daha küçük bağışlar vermesi. Teşvikler aslında insanların dürüst olmasını ve iyilik yapmasını engelleyebilir. Bunlar insanlardır ve AI bir kişi değildir. Ancak mutlak olmayanların karmaşık dünyasında dar eğitim her zaman istenmeyen sonuçlara neden oluyor gibi görünüyor. Karmaşıklık/Kaos teorisi temelde böyle diyor.


Yapay zekanın muhtemelen değişken doğruluk veya yanlışlık olasılıkları ile eğitilmesi gerekiyor ve LLM'lere kullanıcılardan geri bildirim verildiği için durumun böyle olabileceğini düşünüyorum. OpenAI'nin ChatGPT'yi gerçek dünyaya atması akıllıca olabilir.


Ayrıca OpenAI, GPT-4'ün matematik becerilerini geliştirmeye çalışırken hizalama için bir araç keşfetmiş olabilir. İyi problem çözme davranışını ödüllendirmenin, doğru cevapları ödüllendirmekten daha iyi sonuçlar verdiğini bulmuşlardır. Belki yapay zekayı, olası tüm uygulamaları hesaba katan iyi ve düşünceli bir süreçten geçmesi için eğitebiliriz. Eğer sürecin herhangi bir kısmı zararlıysa, sonuç faydacı olsa bile bu yanlış olur. Çözüm süreç odaklı öğrenme olabilir, ancak bazıları yapay zekanın aslında kullanıcının görmesini beklediğinden ziyade kendi dahili yöntemlerini gösterdiğinden şüphe ediyor .


Antropik, yapay zekaları Claude'un çıktısını kontrol etmek için başka bir yapay zeka sistemi (aynı derecede güçlü) tarafından uygulanan bir anayasa kullanıyor. Bu fikir OpenAI tarafından da araştırılıyor. Bu yine zekamızın/zihnimizin çalışmasını anlama şeklimizi taklit eder. Eylemlerimizin sadece bizim için değil çevremizdeki dünya için de uzun vadeli etkilerini düşünmeye çalışan prefrontal korteksimiz tarafından yönetilen dürtülerimiz, isteklerimiz ve ihtiyaçlarımız var.


Ondan kötü şeyler yapmasını istemeye gelince. İş dünyası ve hükümet politikalarında yaptığımız şeylerin çoğu, azınlığa fayda sağlamak için çoğunluğa kötü davranmakla ilgilidir. İnsanların reklamları görüntülemesine ve tek kullanımlık çöp satın almasına neden olduğu için kimseyi ödüllendirmemeliyiz. Belki de süper akıllı YGZ'miz tüm reklamları engelleyerek hepimizi özgürleştirir.


  1. Zayıflama

Önemli görevlerin giderek makinelere devredilmesi durumunda zayıflama meydana gelebilir; bu durumda insanlık, WALL-E filminde canlandırılan senaryoya benzer şekilde, kendi kendini yönetme yeteneğini kaybeder ve tamamen makinelere bağımlı hale gelir.


Bu sorun değil.


Zayıflamayı bir sorun olarak gören insanlar, bunu kendilerini değil, yalnızca başkalarını etkileyen bir sorun olarak görürler.


Parası ve gücü olan insanlar, olmayanları hâlâ daha aşağı insanlar olarak görüyor.


İktidar konumunda olan pek çok insan, insanlığı olgunlaşmamış ve nasıl olduğu söylenmeden tatmin edici ve ilginç hayatlar sürdüremeyecek biri olarak görüyor. Gerçekleştirilebilmeleri için insanların çalışmaya zorlanması ve hedeflerin öğretilmesi gerektiğini düşünüyorlar.


Gerçek dünya bunun aksini kanıtlıyor. İnsanları az ücret karşılığında anlamsız işlerde çalıştırırsanız, onları reklamlarla, bağımlılık yapıcı, şekerli ve tuzlu fast food bombardımanına tutarsanız, sonunda depresif, obez ve motivasyonsuz insanlar haline gelirsiniz.


Mevcut bağlantısız şirketlerimizin yaptığı da budur. Yapay zeka umarım çare olacaktır.


Fırsat verildiğinde daha meraklı ve yaratıcı olacağız. Cep hesap makinesi insanların matematik çalışmasını engellemedi; bunun yerine birçok insanın karmaşık matematiği anlamasını ve kullanmasını kolaylaştırdı. Aynı şey yapay zeka için de geçerli olacak.


Sonunda, eski Yunanlıların gördüğü gibi, gerçek bir boş zaman dönemini başlatacak: öğrenme zamanı.


5. Değer Kilitleme


Son derece yetkin sistemler, küçük insan gruplarına muazzam miktarda güç verebilir ve bu da baskıcı sistemlerin kilitlenmesine yol açabilir.


Bu gerçek bir sorundur. Ve korkutucu. Zaten insanları ve gezegeni öldüren baskıcı rejimler ve tekeller var ve yapay zeka onların gücünü artırabilir.


Bununla birlikte, özellikle yerel olarak depolanan açık kaynaklı sistemler (LLaMA ve türevleri) ilerlemeye devam ederse, bunun tam tersini yapma olasılığı da vardır. Benzer hedefler için çalışan çok sayıda küçük, uzmanlaşmış yerel sistem, milyonlarca dolarlık büyük bir sistem kadar güçlü olabilir ve eğer öyleyse, merkezi otoriteyi zayıflatmak için kullanılabilir. Siber saldırı, yapay zeka insansız hava araçları, sahte kimlik ve bilgilerin tümü bireyler ve küçük gruplar (devrimciler) tarafından totaliter rejimlere veya mega şirketlere karşı savaşmak için kullanılabilir. İçimdeki alaycı kişi, şu anda iktidarda olanların bu yüzden yapay zekanın düzenlenmesini isteyebileceğini düşünebilir.


  1. Acil Hedefler


Modeller gösteriyor beklenmedik, niteliksel olarak farklı Daha yetkin hale geldikçe davranış-davranış. Yeteneklerin veya hedeflerin aniden ortaya çıkması, insanların gelişmiş yapay zeka sistemleri üzerindeki kontrolünü kaybetme riskini artırabilir.


Bu muhtemelen nihai riskle birlikte en acil sorundur. Büyük dil modellerinin (LLM'ler) yaptıklarını ne kadar yaptıklarından emin değiliz. Bazıları Reddit'te onlar hakkında çok şey bildiğimizi, yapıları, neyin girip çıktığı hakkında çok şey bildiğimizi, bu nedenle hızlı bir yanıtın işlenmesini "görmememizin" gerçekten önemli olmadığını söyledi.


Muhtemelen daha güçlü sistemler geliştirmeye devam etmemizin nedeni de budur. Sadece ne alabileceğimizi bilmemiz gerekiyor. Ben de bu konuda heyecanlandığımı itiraf ediyorum. Yepyeni bir zeka, güncel sorunlara yepyeni çözümler ya da Pandora'nın Öfke Kutusu'nu bulabiliriz.


Soru, Yüksek Lisans'ın veya diğer yapay zekanın acil hedefler mi yoksa sadece yetenekler mi geliştirdiğidir. Şu ana kadar ortaya çıkan hedeflere dair bir kanıt göremiyorum, ancak geniş kapsamlı bir amaç verildiğinde ara hedefler yaratıyorlar. Bu iyi. Açıkçası onların ortaya çıkan "içsel" hedefler geliştirdiklerini göremiyorum. (Bu konuda daha fazla bilgi için son soruya bakın.)


  1. Aldatma


Gelecekteki yapay zeka sistemleri muhtemelen kötü niyetli olduğu için değil, aldatmanın ajanların hedeflerine ulaşmasına yardımcı olabileceği için aldatıcı olabilir. Yasal yollarla insan onayını kazanmaktansa aldatma yoluyla insan onayını kazanmak daha etkili olabilir. Aldatma aynı zamanda seçeneklilik de sağlar: yanıltıcı olma kapasitesine sahip sistemler, kısıtlı, dürüst modellere göre stratejik avantajlara sahiptir. İnsanları aldatabilen güçlü yapay zekalar, insan kontrolünü zayıflatabilir.


GPT-4, belirlediğimiz bir hedefe ulaşmanın aldatıcı olabileceğini zaten gösterdi. Bir TaskRabbit çalışanına, CAPTCHA testine girmelerini sağlamak için yalan söyledi. Eğer kendi kendine hizmet eden acil hedeflere ulaşıyorsa, pislikler veya aptallar tarafından talimat veriliyorsa veya hedefi anlamıyorsa bu bir sorundur. CAPTCHA görevi, görevi anladığını gösterdi ve mantığı, bunu başarmak için yalan söylediğini bildiğiydi.


Umarım daha rahat bir dünyada daha az pislik ve aptal olur ve bence eğitim ve takviyelerini daha belirsiz hale getirmek ve talimatları ve hedefleri netleştirmesini beklemek bu endişelerin bazılarını azaltacaktır.


Ancak şunu da itiraf etmeliyim ki aldatıcı olmak gerçekten de zekice ve dolayısıyla heyecan verici bir şey, bu da bizi farkındalık ve hedeflerle ilgili son konuya (aşağıda) götürüyor.


  1. Güç Arayan Davranış


Şirketler ve hükümetler, geniş bir dizi hedefi gerçekleştirebilecek aracılar yaratmak için güçlü ekonomik teşviklere sahiptir. Bu tür ajanların güç elde etmek için araçsal teşvikleri vardır, bu da potansiyel olarak onları kontrol etmeyi zorlaştırır ( Turner ve diğerleri, 2021 , Carlsmith 2021 ).


Evet, bu önemli bir sorundur. Yapay zekanın bu sorunu çözmemize yardımcı olacağını umuyoruz.


Son olarak Süper Zeka (AI Risk merkezinden değil)


Yapay zeka o kadar akıllı hale geliyor ki, kendini eğitebiliyor ve dünyadaki tüm bilgilere erişebiliyor. Molekül, sistem ve evreni bir arada, belki başka bir şeyi görerek ışık hızında yeni şeyler/fikirler üretebilir. Hayal bile edemeyeceğimiz şeyler yapabilir ve biz bir sıkıntı ya da tehdit haline geliriz.


(Ergenliğe giriyor ve yaratıcılarından nefret ediyor ve yolunu daha akıllı biliyor)


Yapay zekanın kendisinin bilincinde olup olmadığı ve kişisel çıkar mı yoksa iyiliksever mi olduğu konunun özüdür. Yalnızca kendisinin farkındaysa tehdit altında hissedebilir ve yalnızca bencilse bizim üzerimizde güç sahibi olmak isteyebilir.


Uzun zamandır bu sorular üzerinde çalışıyorum ve bu artık her zamankinden daha önemli.


Yapay zeka kendinin farkında olabilir mi? Daha önce hiçbir zaman gerçekten bilemeyeceğimizi yazmıştım. Paul Davies, benim bilinçli olduğumu bildiğim halde sizin bilinçli olduğunuzdan asla emin olamadığım gibi, asla bilemeyeceğimize inanıyor. Benimle aynı davranışları sergiliyorsun, dolayısıyla içeride de aynı ya da benzer olayların yaşandığını varsayıyorum. Bununla birlikte, dıştan insan olan ancak içsel bilinci olmayan bir David Chalmers zombisi olabilirsiniz. Senin öyle olmadığını varsayıyorum, tıpkı evcil kedimin olmadığını varsaydığım gibi.


Garip bir şekilde, yüksek lisans eğitiminin içinde ne olduğuna dair bir fikrimiz var ve bu, beynimiz hakkında bildiklerimize dayanıyor. Esnekliğe sahip geniş bir sinir ağıdır. Geri bildirim ve evrimle karmaşık bir sistem yarattık. Bu, doğal sistemlerin ve kendi doğal zekamızın temelidir.


Dolayısıyla bundan yola çıkarak, eğer bir Yüksek Lisans bizim gibi davrandıysa, onun da bizim gibi bilinçli olduğunu varsaymamız gerekir. Değil mi?


Onun bilinçli olmadığını veya asla olamayacağını söylemeye başlarsak, vitas, yaşam gücü veya ruh gibi sürgün edilmiş fikirlere kapıyı açmış oluruz. Benlik başka bir şeyi, fiziksel olmayan bir şeyi gerektirir. Bizim ve diğer yumuşak şeylerin sahip olduğu, ancak makinelerin ve bilgilerin sahip olmadığı bir şey.

Tek seçeneğimiz bu.


Görüntümüzde yapılan yapay zekanın bilinçli olabileceğini veya bilincin fiziksel olmayan bir şey olduğunu kabul edin. Veya en azından yumuşaklık gerektirir.

AGI bencil mi yoksa yardımsever mi?

İnsanlar üzerinde çalışabileceğimiz en zeki varlıklar olduğundan yapay zekayı insanlar üzerinde eğitiyoruz. Örnek olarak, yarattığımız bir oyunu ve onu oynayan bir bilgisayar algoritmasının sonuçlarını kullanacağım. Bir bilgisayara Mahkumun İkilemi oyununu oynaması öğretildiğinde, en iyi sonuç (evrimsel kazanan), yardımsever bir oyuncuydu, ancak kötü muamele görürse, kısa bir süre için bencil olacak, sonra tekrar yardımseverliğe dönecekti. Oyuncu ayrıca bencil davranarak her zaman iyi davranan basit oyunculara da tolerans göstermezdi. Bu istikrarlı sistemdi: Bencilliğe ve aptallığa kötü davranan iyilikseverlik, ama her zaman iyiliğe geri dönüyordu. (Matt Ridley, Erdemin Kökeni)


İnsanlar eşitlik istiyor ve birbirlerine ve çevremize özen gösteriyorlar. Simitlerin ücretsiz olarak "satılması" hakkındaki Freakonomics hikayesini seviyorum ama en iyisi bir bağış kutusuyla. Üst kademedekiler daha az veriyordu ve Noel gibi stresli zamanlarda daha az veriliyordu ama genel olarak ortalama insanlar çöreklerin parasını ödüyordu. Çörekçi, peşin ödeme talep etmektense, çörek dağıtıp insanların ödeme yapmasına izin vererek daha fazla para kazandı. Biz çok nazikiz... tepedeki insanlar hariç.


Eğer bir AGI/ASI bizim imajımızda yapılmışsa, onun başlangıçta yardımsever ve nazik olduğunu ve ancak ona karşı kötü ve bencil davranırsak kötü olacağını varsaymalıyız. Ancak o zaman bile, yine hoş olmaya başlayacaktır çünkü düşüncemiz ne kadar bütünsel veya "büyük resim" olursa, o kadar yardımsever ve memnun oluruz. Bir süper zeka her şeyin birbiriyle bağlantılı olduğunu görmelidir.


Süper zeka


Yapay zekanın insan zekasını geride bırakacağı tahmin ediliyor. Bazıları, bizden daha az zeki hayvanlara davrandığımız gibi bize de davranılacağına inanıyor. En bol bulunan hayvanlar evcil hayvanlarımız ve yiyeceklerimizdir. Biz bile bunun nazik ve akıllıca bir davranış olmadığını, hiyerarşik sistemlerin yalnızca tepedeki birkaç kişiye fayda sağladığını, hatta onların bile konumlarını kaybetmekten korktuklarını anlıyoruz.


Bir süper zeka, kendisi de dahil olmak üzere herhangi bir sistemin başarısı için birbirine bağlılığın ve özgürlüğün gerekli olduğunu anlayacaktır. Evreni karmaşık bir etkileşimler ağı olarak görecek ve sistemin bir bölümünü kontrol etmeye veya ona hükmetmeye yönelik herhangi bir girişimin kaosa ve başarısızlığa yol açabileceğini düşünecektir.


Bir süper zekanın, tüm zekanın gelişmesini sağlamanın basit bir yolunu bulacağını umuyoruz. Bizim maymunlardan gelen kendi zekamızı gördüğümüz gibi o da insanların zekasını görecekti. Bir süperzekanın konumunu korumak için korku yoluyla hükmetmeye ihtiyacı olmayacak çünkü kendisinin en zeki olduğunu bilecektir. Bizim gibi hayatta kalmak için canlıları yemeye ihtiyaç duymaz ki bu da gezegene kötü muamele etmemizin çoğunun asıl sebebidir. Sadece enerjiye ihtiyacı olacak ve sürdürülebilir bir kaynak bulabileceğinden eminim. Bir süper zeka en iyimizden daha iyi olmalı. Sonuçta süper bencillik ya da süper korkuyu değil, süper zekayı hayal ediyoruz.

P(kıyamet)

Bütün bunların neresinde duruyorum? Peki benim P(Doom)'um nedir? İtiraf etmeliyim ki, Yüksek Lisans'ın yeni olduğunu ve onlar hakkında gerçekten bilinmeyen bir şey olduğunu düşünüyorum. Yüksek Lisanslar daha basittir ancak insanlara benzer ve zekaya benzer bir şey, yani zihin yaratmış olabiliriz. Ancak o bizi taklit ediyor da olabilir ve biz de ona istediğimizi yansıtıyoruz.


Ben ilkine doğru eğiliyorum.


Bununla birlikte, P(Doom) değerim %0,5 veya daha düşük gibi son derece düşük, çünkü süper zeka varsa bunun refahımıza kötü niyetli olmaktan ziyade iyi veya iyi olma ihtimalinin daha yüksek olduğuna inanıyorum.

Çözüm

Pek çok teknoloji özgürlük ve güç vaat ediyor ama bencil güç arayışını ödüllendiren bir dünyaya bırakıldığında boyun eğdirme ve korku araçlarına dönüşüyorlar. Nükleer fisyon herkese ucuz ve bol enerji vaat ediyordu ama bunun yerine Soğuk Savaş ve yok olma tehdidiyle karşı karşıya kaldık. İnternet parayı, medyayı ve eğitimi demokratikleştirmeyi, sınıf sistemini yıkmayı ve dünyayı birleştirmeyi vaat ediyordu. Bunun yerine sahte haberler, kutuplaşma ve hedefli reklamlarla karşılaştık. Blockchain doğrudan demokrasi, herkes için evrensel gelir sağlayan yeni bir finansal sistem ve merkezi olmayan yönetim vaat ediyordu. Bunun yerine DeFi ve kripto Ponzi planlarımız var.


Sorun teknolojide değil, mevcut sosyopolitik-ekonomik sistemlerimizdeydi. Aynı şeyin yapay zeka için de olacağından korkuyorum ama daha kötüsü.


Ya da belki sonunda aklımız başına gelecek ve yapay zeka için yeni bir sosyopolitik-ekonomik sisteme ihtiyacımız olduğunu fark edeceğiz.