paint-brush
Açıklanabilir Yapay Zeka Kaosu Yeniden Markalaştırıyor, Çözmüyorile@bigmao
Yeni tarih

Açıklanabilir Yapay Zeka Kaosu Yeniden Markalaştırıyor, Çözmüyor

ile susie liu7m2024/12/13
Read on Terminal Reader

Çok uzun; Okumak

Açıklanabilir AI çok popüler. Şeffaflık vaadi asildir, ancak ödünler AI'nın gerçek potansiyelini engelleyebilir. "Neden"i kovalamak ilerlemeyi rayından çıkarmaya değer mi?
featured image - Açıklanabilir Yapay Zeka Kaosu Yeniden Markalaştırıyor, Çözmüyor
susie liu HackerNoon profile picture
0-item
1-item


Az önce bir AI sistemi tarafından ipotek başvurunuz reddedildi. Davanızı inceleyen bir insan olmadı, itiraz mümkün değil ve teselli ödülünüz nemli bir açıklama: "Kredi kullanım oranınız olumsuz bir sonucu tetikledi." Kendinizi güvende hissediyor musunuz? Öyle düşünmemiştim .


Makinelere ne kadar çok yük yüklersek, açıklanabilir AI (XAI) taleplerimiz o kadar yüksek olur; botları kıracak ve bizi kara kutuların ağından çıkaracak araçlar. Bu programatik mükemmellik! Teknofobimizi yatıştırmak ve makineleri kontrol altında tutmak için tek elden bir çözüm.


Ama öyle değil.


Açıklanabilir yapay zeka kaosu basitleştirmiyor; sadece onu yeniden markalıyor.


Elde ettiğimiz şey altın kaplama bir yanılsama: Kod çözme sistemlerine milyarlarca dolar harcanırken, gerçek sorunlar (önyargı, kötüye kullanım, aşırılık) dokunulmadan kalıyor.


Fiyatı mı? Dolardan çok daha fazla.

XAI 101: Niyeti Değil Etkiyi Deşifre Eder

Günümüzde açıklanabilir yapay zeka (XAI), nedensellikten ziyade korelasyonu çıkarsamak için SHAP (Shapley Eklemeli Açıklamalar) ve LIME (Yerel Yorumlanabilir Modelden Bağımsız Açıklamalar) gibi yöntemlere güvenmektedir. SHAP, gelir düzeyi, kredi geçmişi veya piksel kümeleri gibi temel girdilere "suçu" paylaştırmak için işbirlikçi oyun teorisine yaslanarak, terazinin kefelerini değiştiren değişkenleri haritalandırırken, LIME tahminlerin nasıl değiştiğini görmek için girdi verilerini ayarlayarak belirli bir karar için hangi özelliklerin en önemli olduğunu açıklayan basitleştirilmiş bir model oluşturur. Görüntü ağırlıklı uygulamalar, hangi piksellerin yapay zekanın dikkatini çektiğini belirlemek için gradyan tabanlı analizden teknikler kullanan belirginlik haritalamasına başvurur. Sağlık hizmeti ve işe alım gibi daha yüksek riskli senaryolar, bir girdi makul bir şekilde değiştirilirse olası sonuçları ortaya çıkarmak için alternatif gerçeklikler hayal eden karşıt olgusal açıklamalara başvurur: örneğin, "Ya tümör 2 mm daha küçük olsaydı?".


Eğer yüklü bir elektrik faturasını ödemeye razıysanız, XAI neyin önemli olduğuna dair makul bir rapor verebilir. Ama neden ? Hiçbir şey.

'Neden' Sorusuna Karşı Dava

"Evrişimsel sinir ağımın 34. katmanı, sağ üst kadranda %12,3 piksel yoğunluğu anomalisi kaydetti. Bu anomali, demografik ve genetik kovaryans için normalleştirilmiş 15 bölgeli veri setlerindeki kötü huylu tümör belirteçleriyle ilişkilendirildi ve Bayes arka kalibrasyonuyla belirlenen kötü huylu tümör eşiğini aşan bir güven puanı üretti."


" Neden" böyle görünüyor. Kafa karıştırıcı mı? Kesinlikle . Rahatlatıcı mı? Kısmen .


Ancak bu düzeyde bir açıklama üretmek (çoğunun IKEA montaj kılavuzuyla birlikte atacağı) sadece maliyetli olmakla kalmaz, aynı zamanda yıkıcı olur . Kötü bir şekilde. Açıklanabilirlik, hesaplama kaynaklarını tüketir, inovasyonu yavaşlatır ve her yeni atılımı kendini haklı çıkarma bürokrasisine dönüştürme riski taşır. Açıklanabilirliğin vaadi asil görünse de, bu ödünler yapay zekanın gerçek potansiyelini boğabilir. "Neden" hedefi ilerlemeyi rayından çıkarmaya değer mi?


Sonuçta önemli olan yapay zekanın nasıl çalıştığı değil, *bizim için* işe yarayıp yaramadığıdır.


Netlik Ucuz Değil

Bir kararın neden verildiğini gerçekten yanıtlamak için nöro-sembolik AI , karşıt açıklamalar ve nedensel çıkarım modelleri gibi yeni teknolojiler geliştiriliyor. Bu yöntemler, derin öğrenmenin desen tanıma özelliğini sembolik akıl yürütmenin kural tabanlı mantığıyla harmanlayan hibrit mimarilere dayanır. Bu tür sistemleri eğitmek, bu modellerin aynı anda yapılandırılmamış verileri (örneğin, resimler veya metinler) ve yapılandırılmış mantık çerçevelerini işlemesi gerektiğinden önemli ölçüde daha yüksek bilgi işlem kaynakları gerektirir ve bu da görevin ölçeğiyle birlikte şişen kombinasyonel karmaşıklık getirir.


Ancak gerçek zorluk donanımda yatıyor. NVIDIA'nın H100'ü veya Google'ın TPU v5'i gibi mevcut GPU'lar ve TPU'lar, eğitim ve çıkarım için verimi en üst düzeye çıkarmak üzere tasarlanmıştır; XAI için gereken yinelemeli, gradyan ağırlıklı hesaplamalar için değil. Nedensel atıflar veya dikkat görselleştirmeleri gibi gelişmiş açıklamalar üretmek, gradyan tekrarı , dinamik bellek erişimi ve düşük gecikmeli paralellik için optimize edilmiş yongalar gerektirir. XAI iş yükleri, özellikle yorumlanabilirliğin tahminlerle birlikte gerçekleşmesi gereken otonom araçlar veya tıbbi teşhisler gibi gerçek zamanlı uygulamalar için temelde farklı donanımlar gerektirir. Büyük şirketlerin LLM'leri desteklemek için yongalara ne kadar para harcadıklarına bakın. XAI'ye özgü yongalar geliştirmenin maliyeti, yeni katmanlarda hesaplama yüküne duyulan ihtiyaç nedeniyle muhtemelen bunu aşacaktır. Mühendislik zorluğu? Daha çok finansal bir kabusa benziyor.

İç Huzuru VS İlerleme Paradoksu

Yapay zeka inşa etmek zaten deney ve optimizasyonun yüksek irtifadaki bir eylemidir. Karışıma açıklanabilirliği de eklerseniz, sadece ip üstünde yürümekle kalmazsınız; bunu sırtınızda bir buzdolabıyla yaparsınız.


Açıklanabilirlik, yorumlanabilir çıktılar üretmek için modellerin yeniden mimarisini gerektirir. Vizyon dönüştürücüler (ViT'ler) gibi yüksek performanslı sistemler karmaşıklık üzerinde gelişir - nüanslı desenleri çıkarmak için büyük veri kümelerini tarar - ancak bunları açıklanabilir hale getirmek genellikle dikkat mekanizmaları veya vekil modeller yerleştirmek anlamına gelir, bu da hesaplama gücünü emer ve performansı düşürebilir. Güçlendirme öğrenmesinde, geliştiriciler ödül yapılarını basitleştirmeye veya çözülebilir politikalar tasarlamaya zorlanabilir ve bu da aracının optimizasyon potansiyelini engeller. Çığır açan sonuçları besleyen aynı karmaşıklık, şeffaflık gereklilikleriyle zincirlenmiş bir sistemde kötü adam olur .


Geliştirme hattı da iyi bir sarsıntı geçiriyor. Karşıt olgular veya nedensel modelleme gibi açıklanabilirlik teknikleri, bozulmuş veri kümeleri üzerinde tekrarlanan değerlendirmeler talep ediyor ve yinelemenin mevcut öğütülmesine katman katman sonradan doğrulamalar ekliyor (hiperparametreleri iyileştirmeyi, kayıp işlevlerini ayarlamayı ve ölçekte çıkarım çalıştırmayı düşünün). Bu birkaç ekstra adım değil; her aşamada bir maraton, atılımlara doğru bir koşu olması gereken şeyi bürokratik bir zahmete dönüştürüyor. Hesaplama yükü? Açıklamalar, çok modlu veya üretken AI gibi gelişmiş alanlarda zaten buzul gibi olan eğitim süreçlerini yavaşlatarak döngüleri bedavaymış gibi yiyor.


Yaşasın, başardın! O kadar da hızlı değil , düzenleme son patron olarak devreye giriyor. Sağlık ve finans gibi endüstriler dağıtım için açıklanabilirliği zorunlu kılıyor, ancak bu gereklilikler genellikle Lu Hamilton'dan bitiş çizgisini geçmeden önce bileğinin her seğirmesini haklı çıkarmasını istemek gibi hissettiriyor. Geliştiriciler, modellerinin en iyi şekilde çalışmasını sağlamaktan çok, yorumlanabilir olduğunu kanıtlamaya daha fazla zaman harcıyorlar. Yapay zeka destekli bir kanser teşhis aracı mı geliştirdin? Harika—şimdi git her eğimi ve ağırlığı gözlük takan bir odaya açıkla. İşin bittiğinde, teknoloji muhtemelen modası geçmiş olacak ve peşinde olduğun yenilik uyumluluk cehenneminde sıkışıp kalacak .


Açıklanabilirlik öncelikleri çarpıtır. Yapay zekanın neler başarabileceğinin sınırlarını zorlamak yerine, ekipler şeffaflık taleplerinin etrafından sessizce yürümek zorunda kalır. Hem yeni başlayanlar hem de araştırmacılar cesur fikirlerden uzaklaşabilir, ay vuruşları yerine uyumluluk dostu vanilya yinelemelerini seçebilir. İlerleme durur, hırs söner ve alan koşması gerekirken yavaş yavaş ilerler .

Rus Bebek Problemi: Açıklamalar Açıklamaları Gerektirir

Açıklanabilir AI, anlaşılmaz olanı basitleştirdiğini iddia ediyor, ancak açıklayıcı bir aziz değil. Gelişmiş bir modeli çözebilecek kadar akıllı olan herhangi bir araç, kendi gizemlerini yaratabilecek kadar akıllıdır . Açıklayıcı bir yorumlayıcıya ihtiyaç duyar, yorumlayıcının bir çevirmene ihtiyacı olacaktır ve siz de anladınız. Özyineleme, bizi daha akıllı bırakmadan bir vahiy olarak sunuldu.


Karşıt olgusal açıklamaları ele alalım, alternatif gerçeklikleri simüle eden adamlar - örneğin avokado tostuna para harcamak yerine tasarruf etseydiniz - sonuçların nasıl değişeceğini göstermek için. Ancak bu senaryolar, özelliklerin bağımsızlığı veya girdiler arasındaki doğrusal ilişki gibi nadiren doğru olan optimizasyon varsayımlarına dayanır. Bu varsayımlar başarısız olduğunda, açıklama başka bir anlaşılmaz soyutlama haline gelir. Peki bunu düzeltmek için? Bizi her yeni aracın kendi yorumlayıcısını talep ettiği bir sarmalın içine daha da derinleştiren ikinci bir nedensel model veya belirginlik haritaları katmanı. Kara kutuyu kırmak yerine, içine daha küçük, eşit derecede opak olanları yuvalıyoruz .


Çok-modlu sistemler —metin, görüntü ve sesi aynı anda işleyen AI modelleri— son derece kullanışlıdır, ancak iğrenç derecede karmaşıktır. Bu sistemlerin çok farklı alanlardaki rekabet eden girdileri nasıl dengelediğini açıklamak, çok farklı veri türleri arasında özellikleri ağırlıklandıran ve hizalayan füzyon mekanizmalarını (dikkat katmanları veya çapraz-modal dönüştürücüler gibi) çözmeyi içeren Herkülvari bir görevdir. Ancak bu açıklama araçlarının kendileri karmaşık optimizasyon döngülerine ve parametre ayarlamalarına dayanır ve bu da ek analiz katmanları gerektirir.


Ah, ne hoş bir ironi : XAI, yapay zekanın gizemini çözmüyor; aynı şekilde bu illüzyonu gerçekleştirecek, aynı derecede karmaşık başka bir makine inşa ediyor.


Kara kutuyu çözmüyoruz; onu her biri bir öncekinden daha az anlaşılır olan, kısmi netliğe sahip sonsuz parçalara ayırıyoruz.


"Neden" sorusunun peşinden ne kadar çok koşarsak, yapay zeka o kadar anlaşılmaz ve pahalı hale geliyor ve bizi kendi kendimize koyduğumuz bir paradoksun içinde bırakıyor: Yapay zeka o kadar açıklanabilir ki, kimse onu açıklayamıyor.

Koruma mı, Yoksa Yan Silah mı?

SHAP ve LIME size bir kararı neyin etkilediğine dair temiz pasta grafikleri gösterebilir, ancak bu grafikler yalnızca onları tasarlayan kişiler kadar dürüsttür . Ayrımcı sonuçlar, posta kodları ve harcama alışkanlıkları gibi zararsız değişkenler ilgi odağı olurken, daha çirkin önyargılar (cinsiyet vekilleri, gelir kümeleri) çerçevenin dışında rahatça gizlenerek mantıklı olarak yeniden çerçevelenebilir. Yanlış ellerde, şeffaflık tiyatroya dönüşür.


Yüksek riskli alanlarda, kuruluşlar sadece birkaç parametreyi düzenleyerek etik olmayan uygulamaları veya teknik kısayolları gizlerken katı düzenleyici gerekliliklerle uyumlu çıktılar üretebilirler. Açıklayıcıyı ayarlayın, ona doğru anlatıyı verin ve işte: kod biçiminde makul inkar edilebilirlik . Taraflı veri kümeleri veya kusurlu hedefler tarafından yönlendirilen kararlar, temizlenmiş mantığa batırılabilir ve açıklanabilirliği hesap verebilirliğe giden bir yol olmaktan ziyade incelemeye karşı bir kalkan haline getirebilir - soruları başlamadan durdurmak için tasarlanmış kusursuz bir sözde mantık katmanı .

"Neden" Asla Sorun Değildi

Yapay zekanın kendini açıklaması için milyarlar harcamak yerine, onu daha iyi hale getirmeye odaklanmalıyız. Yapay zeka ile ilgili gerçek sorunlar, neden yaptığını bilmediğimiz değil, ilk etapta yanlış şeyler yapmasıdır. Kararlarda önyargı mı? Paket servis siparişlerinin ve soyadlarının bir krediyi neden reddettiğiyle ilgili 50 katmanlı açıklamalar yerine, kaynağında algoritmik önyargı azaltmaya yatırım yapın: veri kümelerini yeniden ağırlıklandırın, eğitim sırasında adalet kısıtlamaları uygulayın veya gizli önyargıyı ortaya çıkarmak ve kaldırmak için düşmanca teknikler kullanın. Çürümeyi modele yerleşmeden önce düzeltin.

Açıklanabilirlik de güvenilirliği çözmez. Hataları haklı çıkarmak için LIME veya SHAP gibi araçlarla geriye doğru gitmek yerine, modelleri gürültülü veya düşmanca girdilere karşı daha az hassas hale getiren sağlam optimizasyon teknikleri kullanın. Daha iyi düzenleme, aykırı değer tespiti ve kalibrasyon yöntemleri ( sıcaklık ölçekleme veya Bayes belirsizlik modelleri gibi) tahminlerin yalnızca doğru değil, aynı zamanda güvenilir olmasını sağlayabilir. Bu yaklaşım, kötü kararları aşırı açıklamanın karmaşık orta katmanını atlar ve daha iyi kararlar almaya odaklanır.


Düzenleme, XAI'nin karmaşık jimnastiğine ihtiyaç duymayan bir diğer sınırdır. Güven, AI'nın ruhunu açığa çıkarmasını gerektirmez, sadece AI'nın tutarlı bir şekilde çalışmasını gerektirir. Açıklanabilirliği belirsiz bir standart olarak zorunlu kılmak yerine, en kötü durum veya uç senaryolar ve denetim hatları için güçlü test çerçeveleri için baskı yapın. Bunu otomobiller için çarpışma testleri gibi düşünün; hiç kimse hava yastığının açılma mekaniğini anlamak zorunda değil; sadece çalıştığını bilmemiz gerekiyor. AI neden farklı olsun ki?


"Neden" bir dikkat dağıtıcıdır. Daha iyi soru "ne"dir—AI'yi daha adil, daha güvenli ve daha güvenilir hale getirmek için ne yapabiliriz?


Dünyanın, neyin yanlış gittiğine dair 100 adımlık bir açıklamaya ihtiyacı yok.


İlk etapta işleri doğru yapacak şekilde tasarlanmış sistemlere ihtiyaç var.


Son Düşünceler: Çıldırın, Ama Aptal Olmayın

Yapay zeka sizi en yakın Xanax'a sıkıca sardırmıyorsa, ya bir münzevi, inkarcı ya da anarşiyi tasarlayan birisiniz. Yapay zeka çok korkutucu . Ancak varoluşsal korkunun bizi çözmeye çalıştığımız kaos kadar karmaşık plasebo çözümlerine itmesine izin veremeyiz .


Komik olan, AI ile başa çıkmanın en iyi yolunun ona daha az yaslanmak olması olabilir. Her sorunun makine öğrenimi ile çözülmesi gerekmez ve bazen, düz eski insan yargısı gayet iyi çalışır. Çıldırın. Korkmaya devam edin. Paranoya ilerlemeyi güçlendirir .

Ama paniğin bizi, evcilleştirmeye çalıştığımız sistemlerden daha aptal yapmasına izin vermeyin.