ChatGPT ve diğer sohbet robotlarının yapay zeka (AI) araçlarına ilişkin anlayışımızı ve onlarla etkileşimimizi yeniden tasarladığı artık yeni bir haber değil. Geçtiğimiz Kasım ayında ChatGPT'nin piyasaya sürülmesiyle internet çılgına döndüğünde birçok kişi yapay zeka hakkında ilk kez bilgi sahibi oldu.
OpenAI'nin sohbet robotunun heyecanını göz ardı etmeden, her gün yapay zeka araçlarına ve operasyonlarına maruz kalıyoruz. Örneğin, Google'ın arama motorunun ve haritasının sorguları işlemek ve saniyeler içinde yanıtlar vermek için yapay zekaya güvendiği gerçeğini ele alalım.
ChatGPT ve diğer yapay zeka araçlarıyla neler yapılabileceğine dair olasılıklar benzeri görülmemiş bir heyecan yarattı. Yalnızca profesyonellere ayrılmış içerik ve teknik belgeler oluşturan bu araçların örnekleri vardır.
ChatGPT kod yazmak, kötü amaçlı yazılım geliştirmek, fikir üretmek, dilleri çevirmek ve daha pek çok şey için kullanıldı. 2022'de Midjourney'in kullanımı kat kat arttı
Bu araçların yetenekleri aynı zamanda kıyamet korkusunu da beraberinde getiriyor. endişeleri var
13 Ocak 2023'te açılan bir davada Stability AI, Midjourney ve DeviantArt şu şekilde suçlandı:
Yapay zeka gelecek. İyiyi kucaklamayı öğrenmeli ve kötünün etkisini en aza indirecek önlemler almalıyız. Ancak yapay zekanın modern toplumu bozmaya devam edeceğine şüphe yok.
tarafından yakın zamanda yapılan bir anket
Yapay zeka küresel pazar gelirinin 2022'de 136 milyar dolardan bu sayının üzerine çıkması bekleniyor
Yapay zekanın faydaları arasında iş otomasyonu (%30), maliyet tasarrufu (%54), BT performansı (%53) ve daha iyi müşteri deneyimi (%48) yer aldı.
ChatGPT ve diğer araçların pek çok harikası göz önüne alındığında, yapay zeka araçlarının büyücülük ve bilimin bir birleşimi olduğunu varsaymak kolaydır. Neyse ki değiller.
Yapay zeka, kalıpları tanıma, deneyimlerden öğrenme, sorunları çözme ve etkili kararlar alma gibi insan zekası gerektiren görevleri gerçekleştirmek için tasarlanmış, veri tabanlı, laboratuvarda oluşturulan matematiksel modellerdir.
Yapay zekanın gelişimi, bilgisayar bilimi, sinir bilimi ve psikoloji gibi alanlardaki ilerlemelerden kaynaklanmaktadır. İnsan zekasının bir makine tarafından modellenebileceği ve simüle edilebileceği fikrine dayanmaktadır.
Yapay zekada kullanılan temel teknoloji ve tekniklerden bazıları makine öğrenimi, doğal dil işleme ve robot bilimidir.
"Çöp içeri, çöp dışarı" kavramı yapay zeka için büyük ölçüde doğrudur. Yapay zeka sistemlerini geliştirmeye ve onlara giderek daha fazla güvenmeye devam ettikçe, bu sistemlerdeki önyargı potansiyelinin de farkında olmalıyız.
Sorun olarak yapay zekanın kendisini işaret etmek kolay olsa da gerçek şu ki asıl endişe, bu sistemleri geliştiren ve eğitenlerin insani önyargılarıdır. Yapay zeka sistemleri tam olarak geliştiricilerinin onlardan nasıl davranmasını istediği gibi davranır.
Yapay zeka araştırmacılarının %69'u inanıyor
Yapay zekadaki insan önyargısı, yapay zekayı eğitmek için kullanılan verilerden sistemin karar verme süreçlerine kadar çeşitli şekillerde ortaya çıkabilir.
Örneğin, bir yapay zeka sistemi orantısız bir şekilde belirli bir grup insandan oluşan bir veri kümesi üzerinde eğitilirse, diğer grupları doğru bir şekilde anlayamayabilir ve onlar adına kararlar alamayabilir.
Benzer şekilde, eğer bir yapay zeka sistemi belirli varsayımlara veya stereotiplere dayalı olarak kararlar verecek şekilde tasarlandıysa, toplumda zararlı önyargıların devam etmesine neden olabilir.
Yapay zeka ile ilgili en büyük sorunlardan biri, üzerinde eğitim aldığı verilerin, bu verileri toplayan ve düzenleyen kişilerin önyargılarını yansıtabilmesidir.
Örneğin, yüz tanıma sistemini eğitmek için kullanılan bir veri kümesi çoğunlukla açık tenli kişilerin görüntülerinden oluşuyorsa, sistem, koyu ten rengine sahip kişilerin yüzlerini tanımaya çalışırken muhtemelen düşük performans gösterecektir.
Bu, gerçek dünyada sonuçları olabilecek bir önyargı biçimidir;
Ancak önyargılı olabilecek yalnızca veriler değildir; bu sistemleri oluşturan ve eğiten insanlar da kendi bilinçsiz önyargıları yoluyla önyargı yaratabilirler.
Örneğin, bir
Kuruluşların %74'ü yapay zekalarının güvenilir ve sorumlu olmasını sağlamak için gerekli adımları atmadığı için sosyal açıdan sorumlu yapay zeka araçları oluşturmanın aciliyeti kolektif bir sorumluluktur. Önyargı potansiyelini belirlemek ve bunu azaltmak için aktif olarak çalışmakla başlar.
Bu, yapay zeka üzerinde çalışan insanlardan oluşan ekibin çeşitlendirilmesi ve geniş bir perspektif ve deneyim yelpazesinin temsil edilmesini sağlamak anlamına gelir.
Yapay zekayı eğitmek için kullanılan verilerin çeşitli olduğundan ve hizmet vereceği nüfusu temsil ettiğinden emin olmak önemlidir. Bu, mevcut önyargıları veya stereotipleri sürdürmemesini sağlamak için verilerin dikkatlice seçilmesini ve düzenlenmesini içerir.
Ayrıca verilerin kapsayıcı ve adil olmasını sağlamak için verilerin farklı insan grupları üzerindeki potansiyel etkisini dikkate almak ve farklı perspektiflerden girdiler almak önemlidir.
Yapay zeka sistem tasarımı şeffaf ve açıklanabilir olmalıdır. Bu, olası önyargıların veya sorunların belirlenip ele alınabilmesi için yapay zeka sistemlerinin karar verme süreçlerinin açık ve insanlar tarafından kolayca anlaşılması gerektiği anlamına gelir.
Yapay zeka sistemlerinin amaçlandığı gibi çalıştığından ve zararlı önyargıları sürdürmediğinden emin olmak için performansını düzenli olarak değerlendirmek ve izlemek önemlidir. Buna, yapay zeka sistemlerini eğitmek için kullanılan verilerin yanı sıra yapay zeka modellerinin kararları ve eylemlerinin düzenli olarak analiz edilmesi de dahildir.
Hükümet, büyümeyi ve gelişmeyi engellemeden sosyal açıdan sorumlu yapay zeka gelişimini ve kullanımını zorunlu kılan yasa ve düzenlemeler yapmalıdır.
Yapay zeka yaşama, çalışma ve sosyalleşme biçimimizde devrim yaratma potansiyeline sahip. Ancak yapay zeka sistemlerini geliştirmeye ve onlara güvenmeye devam ettikçe önyargı potansiyelini de ele almamız çok önemli. Gerçek kaygının yapay zekanın kendisi değil, onu geliştiren ve eğitenlerin önyargıları olduğunu kabul etmeliyiz.
Bu sorunun farkında olarak ve sorunu hafifletmek için adımlar atarak yapay zekanın geleceğinin herkesin yararına olmasını sağlayabiliriz.
Amaç, toplumun iyiliği için yapay zekanın geliştirilmesi olmalıdır. Böyle bir hedef hükümetlerin, geliştiricilerin ve kullanıcıların kolektif sorumluluğunu gerektirecektir. Hükümetler yapay zeka sistemlerinin sosyal açıdan sorumlu bir şekilde geliştirilmesini sağlayacak düzenlemeleri uygulamalıdır.
Geliştiriciler çeşitliliği, şeffaflığı ve hesap verebilirliği benimseyerek önyargıları önlemelidir. İstenmeyen önyargı ve suiistimali önlemek için yapay zeka sistemlerinin performansını düzenli olarak değerlendirmeli ve izlemelidirler.
Halk ayrıca yapay zekayı nasıl kullandıklarından kendilerinin sorumlu olduğunu anlamalıdır. Yapay zekanın sosyal açıdan sorumsuz kullanımı herkes tarafından engellenmelidir.