paint-brush
Sorun Yapay Zeka Değil, Büyük Teknolojiby@theantieconomist
956
956

Sorun Yapay Zeka Değil, Büyük Teknoloji

Büyük teknoloji devlerinin geçmişini ve zayıf veri güvenliklerini incelediğimizde yapay zekanın yayılmasının gerçek riskleri nelerdir? Görünüşe göre bunun yapay zekanın kendisinden çok büyük şirketler tarafından veri kullanımıyla ilgisi var.
featured image - Sorun Yapay Zeka Değil, Büyük Teknoloji
The Anti-Economist HackerNoon profile picture


Yapay Zeka, inandırıldığımız kadar korkutucu mu, yoksa etik olmayan veri kullanımı konusunda sicili olan ve diğer verilerimizi kullandıkları gibi yapay zekayı kullanmaya devam edecek olan sadece büyük teknoloji devleri mi? ceplerini mümkün olduğu kadar doldurun.


Yapay Zeka konusunda en temel anlayışa sahip olanlar bile, gücünün verileri anlama yeteneğinde yattığını anlıyorlar ve bir Dil Modeli'nin veya yapay zekanın daha akıllı olmasını veya belirli bir amaç için eğitilmesini istiyorsanız, temel unsurun veri olduğunu anlıyoruz. Teknoloji devlerinin Yapay Zeka Modellerini eğitmek ve geliştirmek için kullanılabilecek en büyük Bulut Veri rezervlerine sahip olması beklendiğinden, yapay zeka ve Büyük teknolojinin geçişine tam da bu noktada başlıyor.


Chat GPT'nin ilk sürümünün yayınlanmasından kısa bir süre sonra, 2022'den beri Google , Microsoft ve Amazon milyarlarca yatırım yaptı ve zamanımızın en gelişmiş yapay zeka geliştirme şirketleriyle güçlü ilişkiler kurdu.


Bu tür anlaşmalarda bile çalışanlar sıklıkla kendilerini yapay zekanın büyük teknolojide kullanımına ilişkin etik ikilemlerde buluyor. Dario Amodei, görünüşe göre Microsoft'un katılımıyla ilgili güvenlik ve etik kaygılar nedeniyle Open AI'dan ayrıldı. Kısa bir süre sonra, diğer kötü üvey kız kardeşine yönelmek için Anthropic'i kurdu ve yaklaşık $ aldı. 1,25 Milyar Dolar Amazon'dan yatırım ve2 Milyar Dolar Google'dan.


Büyük Teknoloji şirketlerinin çalkantılı geçmişi (ve bugünü), mahremiyet etiği ve Yapay Zeka'ya verdikleri yoğun destek göz önüne alındığında, bu noktada sorunun yapay zekanın gelişiminde değil, gizlilikle ilgili endişelerimizde olduğundan endişe etmek muhtemeldir. hepsi fazlasıyla tanıdık.


Teknoloji devleri, gizlilik endişeleri, yapay zeka dil modellerinin yetenekleri ve hükümet düzenlemeleri arasındaki ilişkiyi incelerken, yapay zekanın kötü niyetli varlıklar tarafından kullanıldığında yüksek potansiyeliyle ilişkili riskleri dikkate almak çok önemlidir.



Yapay Zeka Devrimi

Dil Öğrenme Modelleri (LLM'ler) veya çoğu insanın bildiği şekliyle Yapay Zeka, birlikte eğitildikleri bilgilere dayanarak sonuçlar oluşturmak için özerk bir şekilde hareket edebilen bir dizi Algoritmanın devasa bir birleşimidir.


Yapay zeka çoğu kişinin düşündüğü kadar yeni bir araç değil; Günlük yaşamımızda birçok yapay zeka aracı kullanılmaktadır. Arabalarımızdaki haritalardan sosyal medya reklamlarına, Netflix önerilerimize kadar hepsi rutinimizi ve alışkanlıklarımızı öğrenmek ve nelerle meşgul olabileceğimize dair öneriler ve tahminler yapmak için yapay zeka araçlarını kullanıyor.


Doğru kullanıldığında Yapay Zeka, günlük hayatımızda teknolojiyle etkileşim şeklimizi dönüştürme gücüne sahiptir. Bu sadece hayatlarımızı daha rahat hale getirmekle kalmaz, aynı zamanda gerçeklikle çoğu kişi kadar kolay etkileşime giremeyen kişiler için erişilebilirliği de dönüştürebilir. Örneğin görme engelliler, yapay zekayı kullan Daha iyi gezinme için çevrelerindeki dünyayı anlatmak.


Yapay zeka halihazırda E-ticaret, sağlık teknolojisi, finans, tarım ve eğitim dahil olmak üzere birçok farklı süreci kolaylaştırmak için kullanılıyor. İnsanların işlerini kolaylaştırmak. Biz insanlar olarak zaten yaptığımız otomatik görevleri yerine getirebilmek, birçok insanın işinin büyük bir kısmını oluşturan sıradan görevlere çok fazla zaman harcamak zorunda olmadığımız ve insan yaratıcılığının çok önemli olduğu alanlara odaklanmak zorunda olmadığımız anlamına gelir.


Örneğin, Broadway'deki inşaat ve şehir merkezindeki trafiğin durması göz önüne alındığında, yapay zeka bugün işe gidip gelmek için daha iyi bir rotaya karar vermemi kolaylaştırıyor; bu, fazladan 10 dakika uyuyabileceğim ve ayrılmadan önce kendime bir kahve yapabileceğim anlamına geliyor Bu da günümü çok daha iyi hale getirecek ve işyerimde daha verimli olmamı sağlayacak.


Unutulmaması gereken önemli bir nokta da, işlevlerini kontrol etmek için yalnızca çiplere güvenen diğer araçlardan farklı olarak yapay zekanın, daha sonra öğrendiği ve ona belirli komutlar verdiğimizde geri çağırabildiği büyük miktarda bilgi üzerine eğitilmiş olmasıdır.


Google, Amazon ve Microsoft, yapay zeka modellerini eğitmek için kullanabilecekleri ve yararlanabilecekleri en büyük insan verisi depolarından bazılarına (muhtemelen sizinki de dahil) sahip olduğundan, yapay zekanın gelişimi ile büyük teknoloji arasındaki ilişkinin başladığı yer büyük ölçüde burasıdır.


Verilerimiz konusunda en az güvenilir olduklarını kanıtlayan şirketlerin, daha akıllı yapay zeka geliştirme çabasına öncülük edenler olması biraz endişe verici.


Söylemeye gerek yok, felaketin tarifi gibi görünüyor. Ve en çok kaybedecek olan da biz tüketiciler.


Yapay Ayın Karanlık Yüzü

Teknoloji dünyasındaki çoğumuz, üretken yapay zeka araçlarının geleceğe dair neler sunabileceği konusunda temkinli bir iyimserlik içindeyiz ve yapay zeka teknolojisini kullanan ilham verici yeniliklerin büyük potansiyele sahip olduğunu görmeye devam ediyoruz.


Beni yanlış anlamayın, yapay zeka dünyamızda çok iyi bir şey olabilir ve şu anda pek çok kişinin günlük yaşamlarında yardımcı olacak önemli teknolojiler yaratmak için kullanılıyor, ancak çoğu insanın yapay zeka hakkındaki endişeleri ve çekinceleri yeterli düzeyde olmalıdır. Bu kadar güçlü bir teknolojiyi günlük hayatımıza sokarken bu konuya değinildi.


Her ne kadar kâr odaklı olsalar da Büyük Teknoloji Devleri, tüketicilerinin veri gizliliğine saygı gösterme sorumluluğuna sahiptir (bu, sahip oldukları bir sorumluluktur). sürekli göz ardı edilen ) ve özellikle Veri kullanılarak eğitilen yapay zeka söz konusu olduğunda, Dil Modellerini eğitmek için kullandığınız veri türü konusunda çok bilinçli olmak son derece önemli hale gelir. Bazı insanlar aslında Facebook fotoğraflarının, Instagram hikayelerinin, konum geçmişinin, finansal verilerinin vb. bir yapay zeka modelini eğitmek için kullanılmasını istemiyor. Moreso tıbbi, biyometrik, finansal ve konum verileri gibi daha hassas verilerle.


AI Histeri yanlış mı yerleştirildi?

Kesinlikle bir tane gördük kavrama Yapay zekanın kabiliyetini çevreleyen histeri ve onun işleri çalması, duyarlılık kazanması ve sonunda insan ırkını geride bırakmasıyla ilgili endişeler içindeyiz; ancak gerçekçi konuşmak gerekirse, korkmamız gereken şey, Google'ın kârı en üst düzeye çıkarmak için verilerimizi bize karşı kullanmasıdır. Bu onların zaten yaptıkları bir şey, ancak verilerimizi bize karşı kullanma potansiyeli, hayatınızın her yönünü anlayan, kaydeden ve yanlış kişilerin erişimine açık olan yapay zeka ile uğraşmaya başladığımızda daha ciddi hale geliyor.


Hassas/Kişisel veriler üzerinde eğitilen yapay zeka modellerinin riskleri

İnsanların, Amazon Alexa kullanılarak toplanan verilerin istendiğini, izinsiz olarak kolluk kuvvetlerine verildiğini ve bir cezai soruşturmada kendilerine karşı kullanıldığını bildirdiği olaylar zaten yaşandı.


Ayrıca kişisel verilerin siyasi gündemleri ilerletmek ve potansiyel olarak yanlış bilgi yaymak için kullanıldığı çok sayıda olay da yaşandı. Büyük teknoloji şirketleri tarafından toplanan verilerin yanlış ellere geçtiği çok sayıda veri ihlali, milyonlarca insanın kişisel bilgilerine suç niteliğinde erişim sağlıyor.


Yapay zeka modellerini eğitmek için kişisel verileri kullanmak, veri girişi ve alışverişi sürecinde yetkisiz erişim sonucu gizlilik ihlalleriyle ilgili potansiyel sorunlara yol açıyor. Yapay zeka modellerini eğitmek için kullanılan verilerin uzun süreci sırasında, dikkatle ve dikkatle ele alınmazsa, bu veriler birçok kez aktarılabilir ve insanların kişisel verilere düzensiz erişimi olur. Bu kadar büyük hacimlerdeki karmaşık bilgilerin işlenmesi sırasında, güvenlik önlemlerindeki bir eksiklik sonucunda hassas bilgilerin yetkisiz bir şekilde açıklanmasına yol açacak veri ihlallerinin meydana gelmesi mantıksız değildir.


Yapay zekayı çeşitli veri kümeleri üzerinde eğitmenin önemi, bir yapay zeka modelinin aldığı eğitime bağlı olarak önyargılara ve ayrımcılığa sahip olmasının çok gerçek ve önceden deneyimlenmiş olasılığından kaynaklanmaktadır. Örneğin yüz tanımayı ele alalım; belirli bir mağazada kimin hırsızlık yaptığını tespit etmek ve üç yıllık bir süre boyunca güvenliği beslemek için bir yapay zeka modeli kullanılabilir. Söz konusu güvenlik görüntülerinde yer alan kişilerin ağırlıklı olarak belirli bir ırktan olması halinde yapay zeka modeli, söz konusu insan havuzunun dışında kalan herkesin hırsızlık yapma olasılığının daha yüksek olduğunu tahmin etmeye başlayabilir. Eğitim verileri çeşitli ve temsili değilse yapay zeka modeli, öğrenmesini farklı bir popülasyona doğru bir şekilde genelleştirmede zorluk yaşayabilir.


Yapay zeka modelleri yalnızca bir dizi demografiye göre eğitilirse, bu durum, verilerdeki önyargıya bağlı olarak Dil Modelinin kendisinde önemli potansiyel önyargı riskini bırakır. Burada konu nispeten basittir; belirli grupların elinde daha fazla kişisel veri varsa yapay zekadaki önyargıları nasıl önleyebiliriz? Veri seti içerisinde yeterince temsil edilmeyen topluluklar için dışlayıcı sonuçlara yol açabilir.


Ayrıca, verilerinin yapay zeka modellerinin eğitiminde kullanılmak üzere toplandığının kullanıcılara açıklanıp açıklanmadığı konusunda rıza ve şeffaflık eksikliği faktörü de var. Sürekli bilgi bombardımanına uğradığımız ve sıklıkla seçim felci yaşadığımız günümüzde, %91 İnsanların oranı herhangi bir başvuruya kaydolurken şartlar ve koşulları okumuyor ve bu nedenle tüketicilerin veri haklarıyla ilgili olarak neye kaydolduklarını gerçekten bilip bilmedikleri sorusunu gündeme getiriyor. Bu, kullanıcı güveninin aşınmasında büyük bir rol oynayabilir. çalışmalar İnsanların %42'sinin büyük teknoloji şirketlerine güveni düşük veya şu anda çok düşük olduğundan, zaten şaşırtıcı derecede düşük bir güvenilirlik buluyorlar.


Bu büyük teknoloji devlerinin bile büyük veri ihlallerine yol açan siber saldırılara açık olması çok gerçek bir tehdittir. yakın tarih kapsamlı bir şekilde ortaya konmuştur ve bu tür riskler, yapay zekayı eğitmek için büyük miktarda verinin kullanılması ve iletilmesinin artmasıyla daha da artmaktadır. Facebook gibi teknoloji devlerinin bu tür siber saldırılar ve kullanıcı verilerinin sızmasıyla gergin bir geçmişi var ve bu durum tüketiciyi, teknoloji devleri hali hazırda mevcut olanlarla başa çıkamazken başka bir güvenlik açığı noktası eklemenin akıllıca olup olmadığı konusunda merakta bırakıyor. onların tabakları.


Gelecek yıllarda AI teknolojisinin yaygınlaşmasıyla birlikte görebileceğimiz bir diğer potansiyel sorun, bireyleri riske atabilecek hassas bilgileri yeniden ortaya çıkarabilecek anonimleştirilmiş verilerin yeniden tanımlanmasıdır.


Düşünceleri kapatmak

Pek çok insanın yapay zeka ve onun işgücüne neler getirebileceği konusunda pek çok çekincesinin olması tamamen mantıklıdır (her ne kadar bu muhtemelen hiçbir şeyi değiştirmeyecek olsa da), ancak bence doğal insani içgüdümüz, yeni olan her şeye şüpheyle yaklaşmak. , sorunun başından beri burada olabileceğini unutuyoruz.


Bu tamamen ortalama bir çalışanın hatası değil, bu milyarlarca dolarlık şirketler muhtemelen onlardan gerektiği kadar nefret etmememiz için hatırı sayılır miktarda çaba harcadılar, ancak yine de insanların şeytan gibi davrandığını görmek oldukça ilginç. onu kullanan el değil, vuran alet. Yapay zeka konusunda bilginiz olsun ya da olmasın, muhtemelen bu teknoloji devlerinin veri koruma konusundaki başarısızlıklarını biliyorsunuzdur ve bu nedenle önümüzdeki 5 yıl içinde yapay zekanın etik olmayan bir şekilde kullanıldığına dair tartışmalar görmemiz sürpriz olmamalı. Her adımınızı takip edin ve bundan para kazanın.



Adi Goldstein'ın Unsplash'taki ana görseli