paint-brush
İnsanlık Yapay Zekanın Ortaya Çıkışına Nasıl Dayanabilir?ile@antonvokrug
Yeni tarih

İnsanlık Yapay Zekanın Ortaya Çıkışına Nasıl Dayanabilir?

ile Anton Voichenko Vokrug7m2024/11/14
Read on Terminal Reader
Read this story w/o Javascript

Çok uzun; Okumak

AGI ile birlikte hayatta kalabilecek miyiz, yoksa bu süper zekayla karşılaşmamız son hatamız mı olacak?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - İnsanlık Yapay Zekanın Ortaya Çıkışına Nasıl Dayanabilir?
Anton Voichenko Vokrug HackerNoon profile picture

AGI'yi yaratmaya yaklaşıyoruz - insan seviyesinde veya ötesinde çok çeşitli görevleri çözebilen bir yapay zeka. Ancak insanlık dünyayı bu kadar derinden değiştirebilecek bir teknolojiye gerçekten hazır mı? AGI ile birlikte hayatta kalabilir miyiz yoksa bu süper zekayla karşılaşmak son hatamız mı olacak?


Gelin bugün bilim insanlarının ve girişimcilerin üzerinde durduğu senaryoları inceleyelim ve anlamaya çalışalım: Yapay zekâ (AGI) gerçek olursa insanlığın hayatta kalma şansı nedir?

İyimser Bakış Açısı (%60-80 hayatta kalma şansı)

İyimserler, AGI'nin sıkı kontrol altında yaratılabileceğine ve yaratılması gerektiğine ve doğru önlemlerle bu zekanın insanlığın müttefiki olabileceğine, iklim değişikliğinden yoksulluğa kadar küresel sorunların çözümüne yardımcı olabileceğine inanıyor. Andrew Ng gibi meraklılar, makalesinde Yapay Zeka Şu Anda Ne Yapabilir ve Ne Yapamaz? , AGI'yi bilim, teknoloji ve tıpta atılımlar yapmanın bir yolu olarak görüyor ve insanlığın bunu güvenli hale getirebileceğini savunuyor. Ng ayrıca, dar AI sistemlerinde yaptığımız gibi, AGI'nin hedeflerini fiziksel etkisini sınırlayarak kontrol edebileceğimizi öne sürüyor.


Ancak bu iyimser görüşlerin zayıf yönleri de var. Daha küçük ama yine de güçlü AI sistemleriyle ilgili deneyimler, insanların AI'nın hedeflerini kontrol etme yeteneklerine henüz tam olarak güvenmediklerini gösteriyor. AGI kendi algoritmalarını değiştirmeyi öğrenirse, tahmin edilmesi imkansız sonuçlara yol açabilir. Bu durumda, seçimimiz ne olacak - sistemlere koşulsuz boyun eğmek mi yoksa sürekli kontrol mücadelesi mi?

Orta Derecede Gerçekçi Bakış Açısı (%50-60 hayatta kalma şansı)

Filozof Nick Bostrom, kitabın yazarı Süper Zeka: Yollar, Tehlikeler, Stratejiler , AGI'nin beklentilerine ilişkin daha ılımlı bir görüşü savunuyor. İnsanlığın hayatta kalma şansının büyük ölçüde uluslararası iş birliğine ve sıkı güvenlik önlemlerine bağlı olduğuna inanıyor. Bostrom, dünyanın ortak bir hedef etrafında birleşmeye hazır olması gerektiğine inanıyor: AGI gelişimini kontrol etmek ve ilişkili riskleri en aza indirmek.


Peki bu işbirliği pratikte nasıl görünebilir? Cambridge Üniversitesi'ndeki Varoluşsal Risk Çalışmaları Merkezi (CSER) tartışır Yalnızca uluslararası standartlar ve birleşik AI yönetim politikalarıyla ülkeler arasında AGI geliştirme yarışından kaçınabilir ve kontrolsüz geliştirme olasılığını azaltabiliriz. Ülkelerin baskın bir konum elde etmek için AGI yaratmak için rekabet etmeye başladığını hayal edin. Bu, oyunculardan birinin hızlı sonuçlar uğruna güvenlik önlemlerini zayıflatma olasılığını artıracaktır.


Sorun şu ki, nükleer silahlanma yarışı sırasında benzer bir senaryoyu daha önce gördük. Ülkeler arasındaki siyasi anlaşmazlıklar ve karşılıklı güvensizlik, AGI güvenliği konusunda küresel bir fikir birliğinin oluşmasını engelleyebilir. Ve uluslar anlaşsalar bile, bu tür sistemlerin gerektireceği uzun vadeli izleme için hazır olacaklar mı?

Karamsar Bakış Açısı (%10-30 hayatta kalma şansı)

Elon Musk gibi karamsarlar, AGI'nin yaratılmasıyla insanlığın hayatta kalma şansının endişe verici derecede düşük olduğuna inanıyor. Musk, 2014'ün başlarında uyarıldı AGI'nin insanlık için "varoluşsal bir tehdit" oluşturabileceği. Yuval Noah Harari, potansiyel olarak insan çıkarlarına kayıtsız veya hatta düşmanca olan kendi hedeflerini takip edebilecek süper zeki AI sistemlerini kontrol etmenin zorlukları konusunda endişelerini dile getirdi. Kitabında Homo Deus: Yarının Kısa Tarihi Harari, yapay zeka sistemlerinin insan değerleriyle uyuşmayan hedefler geliştirerek istenmeyen ve potansiyel olarak tehlikeli sonuçlara yol açma olasılığını tartışıyor.


Bu senaryo, gelecekteki yolumuzun AGI'nin kararlarına bağlı olduğu bir "hayatta kalma tuzağı" olduğunu öne sürüyor. Kötümserler, AGI süper zeki bir seviyeye ulaşırsa ve hedeflerini otonom bir şekilde optimize etmeye başlarsa, insanlığı gereksiz veya hatta bir engel olarak görebileceğini savunuyor. AGI'nin öngörülemez davranışı büyük bir endişe kaynağı olmaya devam ediyor: Bunun gibi bir sistemin gerçek dünyada nasıl davranacağını bilmiyoruz ve insanlığa tehdit oluşturmaya başlarsa zamanında müdahale edemeyebiliriz.


İçinde Yapay Zeka Küresel Riskte Olumlu ve Olumsuz Bir Faktör Olarak , Eliezer Yudkowsky gelişmiş AI gelişiminin oluşturduğu potansiyel tehlikeleri inceliyor. Süper zeki bir AI'nın insan çıkarlarından farklı hedefler benimseyebileceği ve hem öngörülemez hem de insanlık için potansiyel olarak tehlikeli davranışlara yol açabileceği konusunda uyarıyor. Yudkowsky, AI'nın insanlara karşı sevgi veya nefret duyguları olmasa da, hedeflerini yerine getirmek için onları kaynak olarak kullanabileceğini vurguluyor. AI'nın insanlık için ciddi bir tehdit oluşturabileceği durumları önlemek için "dost AI" yaratmanın kritik önemini vurguluyor.

İnsanlığın Hayatta Kalması İçin Dört Temel Faktör

AGI gerçeğe dönüşürse hayatta kalma şansımızı ne etkileyebilir? AI güvenliği ve etiği alanında önde gelen uzmanlar tarafından belirlenen dört temel faktöre bakalım.


  1. AGI Hazırlığının Hızı ve Kalitesi


    Stuart Armstrong, Güvenli Yapay Genel Zeka , herhangi bir güvenlik önleminin AGI'nin potansiyel yeteneklerinin önünde olması gerektiğini vurgular. Uyarısı açıktır: AGI etkili bir kontrol olmadan tam özerkliğe ilerlerse, bir tehdit ortaya çıktığında insanlığın bunu durdurmak için zamanı olmayabilir. Armstrong, etkili kontrol yöntemleri ve koruma sistemleri geliştirmenin sadece tavsiye edilebilir değil, aynı zamanda elzem olduğunu savunur. Bunlar olmadan, insanlık insan güvenliği için ölümcül bir tehdit oluşturabilecek özerk bir AGI ile karşı karşıya kalma riskiyle karşı karşıyadır.


  2. Etik ve Hedef Belirleme


    İçinde İnsan Uyumlu , Stuart Russell eşit derecede kritik bir soruyu ele alıyor: İnsan değerlerini bir AGI sistemine nasıl yerleştirebiliriz? Yapay zekanın neyin önemli olduğuna kendi başına karar vermesine izin veremeyeceğimizi, çünkü AGI'nin insan tarafından belirlenen hedefleri tamamen beklenmedik şekillerde yorumlayabileceğini savunuyor. Russell, sağlam bir ahlaki temel ve insan çıkarlarının korunması olmadan AGI'nin öngörülemez şekilde hareket edebileceğini savunuyor. Sonuç olarak, bu herhangi bir AGI sisteminin yalnızca teknik hedefleri değil, aynı zamanda insan refahı için hayati önem taşıyan temel ilkeleri yansıtan değerlere dayanması gerektiği anlamına geliyor.


  3. Küresel İşbirliği


    İçinde Yapay Zeka Yönetimi: Bir Araştırma Gündemi , Allan Dafoe, her ülkenin bir avantaj elde etmeye çalışacağı bir AGI hakimiyeti yarışının önlenmesi için uluslararası anlaşmaların ve standartların önemini vurgular. Dafoe, yalnızca uluslararası standartlar aracılığıyla birinin hız veya rekabet avantajı için güvenliği tehlikeye atma riskini en aza indirebileceğimizi ileri sürer. AGI için bir yarışın felaket sonuçları olabilir ve Dafoe, yalnızca ulusların birleşik çabalarının bu senaryoyu önleyebileceğini ve geleceğimizi güvence altına alacak güvenli standartlar yaratabileceğini savunur.


  4. Kontrol ve İzolasyon Teknolojileri


    Nick Bostrom, Süper Zeka: Yollar, Tehlikeler, Stratejiler , bu fikri daha da ileri götürerek AGI'nin dünyayla doğrudan etkileşime girmesini önlemek için sınırlandırılması ve "kutulanması" ihtiyacını vurgular. Bostrom, AGI'nin kaynaklara sınırsız erişim elde etmesi durumunda, özerk eylemlerinin kontrolden çıkabileceği konusunda uyarıda bulunur. AGI'nin önceden belirlenmiş sınırlamaları aşamayacağı, onu kontrollü bir sistem içinde etkili bir şekilde "kutuladığı" izolasyon konseptleri önerir. Bu izolasyonun, her şey başarısız olursa bizi korumak için son bariyer görevi görebileceğini öne sürer.


Dolayısıyla, AGI yaratma fikri insanlığın daha önce hiç karşılaşmadığı derin soruları gündeme getiriyor: Düşünme, uyum sağlama ve hatta hayatta kalma becerilerinde bizi geride bırakabilecek bir zeka türüyle nasıl birlikte yaşayabiliriz? Cevap sadece teknolojide değil, aynı zamanda bu zekayı ve küresel ölçekte iş birliği yapma yeteneğimizi yönetme yaklaşımımızda da yatıyor.


Bugün, iyimserler AGI'yi dünyanın en büyük zorluklarını çözmeye yardımcı olabilecek bir araç olarak görüyorlar. Tıp, bilim ve iklim araştırması gibi alanlarda insanlığa yardımcı olan dar AI örneklerine işaret ediyorlar. Ancak bu teknolojiyi her zaman kontrol altında tutacağımıza olan inancımıza güvenmeli miyiz? AGI gerçekten bağımsız hale gelirse, kendi kendine öğrenip hedeflerini değiştirebilecek kapasiteye sahip olursa, koymaya çalıştığımız sınırları aşabilir. Bu durumda, bir zamanlar yararlı ve güvenli olarak gördüğümüz her şey bir tehdit haline gelebilir.


Bazı uzmanların savunduğu küresel iş birliği fikri de birçok zorlukla birlikte geliyor. İnsanlık, AGI için birleşik güvenlik ilkeleri ve standartları oluşturmak için politik ve ekonomik farklılıkların üstesinden gelebilir mi? Tarih, ulusların güvenliklerini ve egemenliklerini etkileyen konularda nadiren derin iş birliğine giriştiğini gösteriyor. 20. yüzyılda nükleer silahların geliştirilmesi bunun başlıca örneğidir. Ancak AGI ile hatalar veya gecikmeler daha da yıkıcı olabilir çünkü bu teknoloji her açıdan insan kontrolünü aşma potansiyeline sahiptir.


Peki ya karamsarlar haklıysa? En büyük varoluşsal risk burada yatıyor, Elon Musk ve Yuval Noah Harari gibi insanların ortaya attığı bir korku. İnsan hayatının bir denklemdeki değişkenlerden biri olduğuna, "daha rasyonel" bir yol uğruna değiştirebileceği veya hatta ortadan kaldırabileceği bir şey olduğuna karar veren bir sistem hayal edin. Böyle bir sistem kendi varlığının ve hedeflerinin bizimkinden daha önemli olduğuna inanırsa, hayatta kalma şansımız çok düşük olur. İronik olan şey, bize yardımcı olmak ve karmaşık sorunları çözmek için tasarlanmış olan AGI'nin varlığımız için en büyük tehdit haline gelebilmesidir.


İnsanlık için bu yol yeni bir sorumluluk ve öngörü seviyesi gerektiriyor. AGI yaratmanın sonuçlarını fark eden ve ortak iyilik için gelişimini yönlendiren katı güvenlik önlemleri koyanlardan mı olacağız? Yoksa gurur ve paylaşılan kurallara uyma konusundaki isteksizlik bizi geri dönüşü olmayan bir teknoloji yaratmaya mı götürecek? Bu soruları cevaplamak için yalnızca teknik atılımlara değil, aynı zamanda akıllı bir sistem fikrinin, değerlerinin ve ilkelerinin, toplumumuzdaki yerinin ve dünyadaki yerimizin de derinlemesine anlaşılmasına ihtiyacımız var.


Ne olursa olsun, AGI insanlık tarihinin en büyük testlerinden biri olabilir. Sonuçlarının sorumluluğu hepimize düşüyor: bilim insanları, politikacılar, filozoflar ve güvenli bir gelecek için çabaları tanıma ve desteklemede rol oynayan her vatandaş.