Geçtiğimiz yıl boyunca Avrupalı yapay zeka girişimleri denizaşırı rakiplerine yetişiyor ve popüler ChatGPT ile karşılaştırılabilir ürünler sunuyor. Hızlı ilerlemelere ve gelişime odaklanıldığında şeffaflık, etik ve kullanıcı etkisi ile ilgili konular bazen ikinci plana atılıyor. Ancak bu durumun, 2024'ün sonlarında başlaması gereken AB Yapay Zeka Yasası'nın yürürlüğe girmesiyle değişmesi muhtemel.
AB Yapay Zeka Yasası, yapay zeka sistemlerini risk düzeylerine göre sınıflandırır. Yüksek riskli olarak etiketlenen sistemlerin, kamu sağlığı, güvenlik, insan hakları ve toplumsal refah üzerindeki potansiyel etkilerin zorunlu değerlendirmeleriyle birlikte şeffaflık gerekliliklerine uyması gerekecektir. Ayrımcı olmadıklarından ve temel insan haklarına saygılı olduklarından emin olmak için ön yargılara karşı kontrol edilecekler.
Ek olarak, yüksek riskli sistem geliştiricileri, uyumluluğu göstermek için eğitim yöntemleri ve veri kümeleri de dahil olmak üzere ayrıntılı belgeler sağlamakla yükümlü olacak.
GPT-3.5 ile karşılaştırılabilir temel modeller, eğitilmeleri için en az 10²⁵ flops bilgi işlem gücü almaları durumunda düzenlenecektir. Tersine, açık kaynak modellerine ilişkin önemli tavizler verilecek ve bu da bu tür ürünlerin geliştirilmesine teşvik sağlayacaktır.
Ek olarak, AB Yapay Zeka Yasası yasaklanmış yapay zeka sistemlerini listelemektedir. Bu, hassas özellikleri (örneğin ırk, din vb.) kullanan biyometrik sınıflandırmayı, yüz görüntülerinin kazınmasını, işyerinde ve eğitimsel duygu tanımayı, sosyal puanlamayı, insan davranışının manipülasyonunu ve insanın zayıf noktalarından yararlanmak için tasarlanmış sistemleri içerir.
Kanun ayrıca, ihlale ve şirket büyüklüğüne bağlı olarak, 7,5 milyon Avro veya şirketin küresel cirosunun %1,5'inden 35 milyon Avro veya cironun %7'sine kadar değişen cezalarla, uyumsuzluk durumunda yaptırımlar da uyguluyor.
2024'ün sonunda yürürlüğe girmesi muhtemel olan Avrupa Yapay Zeka Yasası nedeniyle, özellikle sisteminiz şu şekilde sınıflandırılmışsa, şimdiden hazırlanmaya başlamak önemlidir:
Veri hazırlamadan başlayıp, derinlemesine sistem değerlendirmesiyle bitirmeye kadar sistem oluşturmanın tüm yönlerine odaklanmanızı öneririz.
AB Yapay Zeka Yasasında belirtildiği gibi şirketler, veri kümelerinin ayrıntılı kayıtlarını tutmaktan sorumlu olacak. Bu, şirketleri veri gizliliğine saygı duymaya ve izlenebilirliği iyileştirmeye zorlayacaktır. Örneğin, bir sistem zararlı içerik üretiyorsa bunun izi, eğitim aldığı veri kümesindeki uygunsuz verilere veya önyargılı metinlere kadar takip edilebilir.
Bu, yeni kurallara hazırlanırken eğitim veri kümelerinin dikkatle değerlendirilmesi gerektiği anlamına gelir. Bu, eğitim için kullanılan veri bölümlerinin filtrelenmesini ve temizlenmesini ve hatta alan adı tarafından seçilmiş ve kazınmış verilerde mevcut olan yaygın önyargılardan kaçınmak için özel olarak oluşturulmuş özel veri kümeleri oluşturmayı içerebilir.
Yeni kurallara uymak için, Yüksek Lisans (LLM) kuran şirketlerin modellerini insan beklentileriyle uyumlu hale getirmeye, doğruluk, yardımseverlik ve zararsızlığa odaklanmaya yatırım yapmaları gerekiyor. Yüksek Lisans hizalaması için kullanılan ana yöntemler şunlardır:
Her iki yöntem de model çıktısı için insan tercihlerini toplar ve bu verileri modele istenen çıktının nasıl görünmesi gerektiğini öğretmek için kullanır. Eğer modeli doğru örneklerle sunarsak, bu aşamada zararlı içerik oluşumunun çoğunu oldukça etkili bir şekilde durdurabiliriz.
Yapay zeka sistemlerinin değerlendirilmesi birinci öncelik olacak ve ürün geliştirme döngüsünün bir parçası olması gerekiyor. İyi bir modele sahip olma duygusunun yerini titiz ve derinlemesine bir değerlendirme stratejisi almalıdır.
Üretken yapay zeka sistemlerinin değerlendirilmesi özellikle zordur çünkü çıktı deterministik değildir. Oluşturulan metin otomatik olarak "doğru" bir yanıtla karşılaştırılamaz. Bu tür sistemlerin değerlendirilmesi, doğruluk, yardımseverlik ve zararsızlık gibi çeşitli yönlere odaklanan insan geri bildirimlerini içerir.
Çoğu zaman sistemlerin yukarıda bahsedilen temel seviyelerin ötesinde değerlendirilmesi gerekir. Örneğin, zararlılığı değerlendirirken onu önyargı, nefret söylemi, ırkçılık vb. gibi kategorilere ayırabiliriz. Bu şekilde, olumsuz etkisini en aza indirmek için sistemde neyin düzeltilmesi gerektiğini ayrıntılı düzeyde keşfedebiliriz.
Hiç şüphe yok ki AB Yapay Zeka Yasası, yapay zeka düzenlemelerinde önemli bir adımdır ve sorumlu yapay zeka geliştirmenin artık bir seçenek olmadığı ve artık yasal olarak uygulanacağı yeni bir yapay zeka çağını ifade etmektedir.
Şirketiniz yeni yapay zeka düzenlemelerine uymaya hazır mı?