AGI'yi yaratmaya yaklaşıyoruz - insan seviyesinde veya ötesinde çok çeşitli görevleri çözebilen bir yapay zeka. Ancak insanlık dünyayı bu kadar derinden değiştirebilecek bir teknolojiye gerçekten hazır mı? AGI ile birlikte hayatta kalabilir miyiz yoksa bu süper zekayla karşılaşmak son hatamız mı olacak?
Gelin bugün bilim insanlarının ve girişimcilerin üzerinde durduğu senaryoları inceleyelim ve anlamaya çalışalım: Yapay zekâ (AGI) gerçek olursa insanlığın hayatta kalma şansı nedir?
İyimserler, AGI'nin sıkı kontrol altında yaratılabileceğine ve yaratılması gerektiğine ve doğru önlemlerle bu zekanın insanlığın müttefiki olabileceğine, iklim değişikliğinden yoksulluğa kadar küresel sorunların çözümüne yardımcı olabileceğine inanıyor. Andrew Ng gibi meraklılar, makalesinde
Ancak bu iyimser görüşlerin zayıf yönleri de var. Daha küçük ama yine de güçlü AI sistemleriyle ilgili deneyimler, insanların AI'nın hedeflerini kontrol etme yeteneklerine henüz tam olarak güvenmediklerini gösteriyor. AGI kendi algoritmalarını değiştirmeyi öğrenirse, tahmin edilmesi imkansız sonuçlara yol açabilir. Bu durumda, seçimimiz ne olacak - sistemlere koşulsuz boyun eğmek mi yoksa sürekli kontrol mücadelesi mi?
Filozof Nick Bostrom, kitabın yazarı
Peki bu işbirliği pratikte nasıl görünebilir? Cambridge Üniversitesi'ndeki Varoluşsal Risk Çalışmaları Merkezi (CSER)
Sorun şu ki, nükleer silahlanma yarışı sırasında benzer bir senaryoyu daha önce gördük. Ülkeler arasındaki siyasi anlaşmazlıklar ve karşılıklı güvensizlik, AGI güvenliği konusunda küresel bir fikir birliğinin oluşmasını engelleyebilir. Ve uluslar anlaşsalar bile, bu tür sistemlerin gerektireceği uzun vadeli izleme için hazır olacaklar mı?
Elon Musk gibi karamsarlar, AGI'nin yaratılmasıyla insanlığın hayatta kalma şansının endişe verici derecede düşük olduğuna inanıyor. Musk, 2014'ün başlarında
Bu senaryo, gelecekteki yolumuzun AGI'nin kararlarına bağlı olduğu bir "hayatta kalma tuzağı" olduğunu öne sürüyor. Kötümserler, AGI süper zeki bir seviyeye ulaşırsa ve hedeflerini otonom bir şekilde optimize etmeye başlarsa, insanlığı gereksiz veya hatta bir engel olarak görebileceğini savunuyor. AGI'nin öngörülemez davranışı büyük bir endişe kaynağı olmaya devam ediyor: Bunun gibi bir sistemin gerçek dünyada nasıl davranacağını bilmiyoruz ve insanlığa tehdit oluşturmaya başlarsa zamanında müdahale edemeyebiliriz.
İçinde
AGI gerçeğe dönüşürse hayatta kalma şansımızı ne etkileyebilir? AI güvenliği ve etiği alanında önde gelen uzmanlar tarafından belirlenen dört temel faktöre bakalım.
AGI Hazırlığının Hızı ve Kalitesi
Stuart Armstrong,
Etik ve Hedef Belirleme
İçinde
Küresel İşbirliği
İçinde
Kontrol ve İzolasyon Teknolojileri
Nick Bostrom,
Dolayısıyla, AGI yaratma fikri insanlığın daha önce hiç karşılaşmadığı derin soruları gündeme getiriyor: Düşünme, uyum sağlama ve hatta hayatta kalma becerilerinde bizi geride bırakabilecek bir zeka türüyle nasıl birlikte yaşayabiliriz? Cevap sadece teknolojide değil, aynı zamanda bu zekayı ve küresel ölçekte iş birliği yapma yeteneğimizi yönetme yaklaşımımızda da yatıyor.
Bugün, iyimserler AGI'yi dünyanın en büyük zorluklarını çözmeye yardımcı olabilecek bir araç olarak görüyorlar. Tıp, bilim ve iklim araştırması gibi alanlarda insanlığa yardımcı olan dar AI örneklerine işaret ediyorlar. Ancak bu teknolojiyi her zaman kontrol altında tutacağımıza olan inancımıza güvenmeli miyiz? AGI gerçekten bağımsız hale gelirse, kendi kendine öğrenip hedeflerini değiştirebilecek kapasiteye sahip olursa, koymaya çalıştığımız sınırları aşabilir. Bu durumda, bir zamanlar yararlı ve güvenli olarak gördüğümüz her şey bir tehdit haline gelebilir.
Bazı uzmanların savunduğu küresel iş birliği fikri de birçok zorlukla birlikte geliyor. İnsanlık, AGI için birleşik güvenlik ilkeleri ve standartları oluşturmak için politik ve ekonomik farklılıkların üstesinden gelebilir mi? Tarih, ulusların güvenliklerini ve egemenliklerini etkileyen konularda nadiren derin iş birliğine giriştiğini gösteriyor. 20. yüzyılda nükleer silahların geliştirilmesi bunun başlıca örneğidir. Ancak AGI ile hatalar veya gecikmeler daha da yıkıcı olabilir çünkü bu teknoloji her açıdan insan kontrolünü aşma potansiyeline sahiptir.
Peki ya karamsarlar haklıysa? En büyük varoluşsal risk burada yatıyor, Elon Musk ve Yuval Noah Harari gibi insanların ortaya attığı bir korku. İnsan hayatının bir denklemdeki değişkenlerden biri olduğuna, "daha rasyonel" bir yol uğruna değiştirebileceği veya hatta ortadan kaldırabileceği bir şey olduğuna karar veren bir sistem hayal edin. Böyle bir sistem kendi varlığının ve hedeflerinin bizimkinden daha önemli olduğuna inanırsa, hayatta kalma şansımız çok düşük olur. İronik olan şey, bize yardımcı olmak ve karmaşık sorunları çözmek için tasarlanmış olan AGI'nin varlığımız için en büyük tehdit haline gelebilmesidir.
İnsanlık için bu yol yeni bir sorumluluk ve öngörü seviyesi gerektiriyor. AGI yaratmanın sonuçlarını fark eden ve ortak iyilik için gelişimini yönlendiren katı güvenlik önlemleri koyanlardan mı olacağız? Yoksa gurur ve paylaşılan kurallara uyma konusundaki isteksizlik bizi geri dönüşü olmayan bir teknoloji yaratmaya mı götürecek? Bu soruları cevaplamak için yalnızca teknik atılımlara değil, aynı zamanda akıllı bir sistem fikrinin, değerlerinin ve ilkelerinin, toplumumuzdaki yerinin ve dünyadaki yerimizin de derinlemesine anlaşılmasına ihtiyacımız var.
Ne olursa olsun, AGI insanlık tarihinin en büyük testlerinden biri olabilir. Sonuçlarının sorumluluğu hepimize düşüyor: bilim insanları, politikacılar, filozoflar ve güvenli bir gelecek için çabaları tanıma ve desteklemede rol oynayan her vatandaş.