paint-brush
İtalya, GDPR Endişeleri Nedeniyle ChatGPT'yi Yasakladıile@150sec
3,150 okumalar
3,150 okumalar

İtalya, GDPR Endişeleri Nedeniyle ChatGPT'yi Yasakladı

ile 150Sec3m2023/04/10
Read on Terminal Reader
Read this story w/o Javascript

Çok uzun; Okumak

İtalyan veri koruma otoritesi Cuma günü OpenAI'nin yerel veri işlemeyi durdurması için derhal bir emir yayınladı. Yasak, şirketin Avrupa Birliği'nin Genel Veri Koruma Yönetmeliği'ni (GDPR) ihlal ettiğine dair artan endişelerden kaynaklanıyor. Bu, binlerce yapay zeka uzmanının, politika yapıcıların düzenlemeleri ayarlamak için zamanları olana kadar bu tür teknolojilerin derhal durdurulması çağrısında bulunmasından birkaç gün sonra geldi.
featured image - İtalya, GDPR Endişeleri Nedeniyle ChatGPT'yi Yasakladı
150Sec HackerNoon profile picture
0-item

İtalyan veri koruma otoritesi Cuma günü OpenAI'nin yerel veri işlemeyi durdurması için derhal bir emir yayınladı . Yasaklamanın nedeni, şirketin verileri işleme şekli ve reşit olmayanlara yönelik kontrol eksikliği nedeniyle Avrupa Birliği'nin Genel Veri Koruma Yönetmeliğini (GDPR) ihlal ettiği yönündeki endişelerin artması.


Her ne kadar İtalya, ChatGPT'nin ücretsiz kullanımı konusunda tetiği çeken ilk ülke olsa da, yapay zekayla ilgili endişelerin hızla arttığı açık. İtalya'nın yasağı , binlerce yapay zeka uzmanının, politika yapıcıların düzenlemeleri yeniliklere uygun şekilde ayarlamaya zamanları olana kadar bu tür teknolojilere derhal ara verilmesi çağrısında bulunmasından birkaç gün sonra geldi.


Ancak yasak, bu tür yapay zeka düzenlemelerinin en azından dünyanın bazı yerlerinde zaten mevcut olduğunu vurguluyor. İtalyan yasa yapıcılar, GDPR ve vatandaşların kişisel verilerini koruyan yasalar sayesinde OpenAI'ye böyle bir yasak koyma konusunda zaten yasal yetkiye sahipti. Peki bu yasak yapay zekanın geleceği açısından ne anlama geliyor?

Yapay zeka GDPR kapsamında ne kadar yasal?

Avrupa'nın GDPR yasaları muhtemelen dünya çapındaki en katı yasalardan bazılarıdır ve ticari kazancın önünde kişisel verilerin korunmasına büyük önem vermektedir. İtalya'nın ChatGPT yasağının duyurulmasından önce Avrupalı yasa koyucular, gelişmiş yapay zeka teknolojisinin büyümesiyle birlikte ortaya çıkan birçok zorlu soruyu çözmeye çalışıyorlardı.


Birincisi, dijital kişisel verilerin küresel doğasının takip edilmesi ve yönetilmesi giderek daha zor hale geliyor.

Örneğin ChatGPT-4 daha önce algoritmalarının Reddit gibi açık forumları içeren internetten alınan veriler üzerine eğitildiğini açıklamıştı. Doğrudan adı geçen kişiler hakkında yanlış bilgi ürettiği de biliniyor. Yanlış bilgilendirmeyle ilgili bariz endişelerin yanı sıra, bu durum OpenAI gibi şirketleri Avrupalıların kişisel veri haklarıyla ilgili bir dizi soruna karşı da savunmasız hale getiriyor.


Ayrıca, GDPR yönergeleri kapsamında yapay zeka teknolojisi söz konusu olduğunda daha geniş kapsamlı bir solucan kutusu da açılıyor. OpenAI yasağı, teknolojinin bir noktada kişisel bilgileri içermesi muhtemel çok büyük miktarda veriye bağlı olması nedeniyle, genel olarak makine öğrenimi algoritmalarının varsayılan olarak GDPR'ye aykırı olabileceğini öne sürüyor.

Sadece AB endişesi değil

Gelişmiş yapay zekanın gelişimini duraklatma çağrısında bulunan açık moratoryum, teknik ilerleme ve yeniliğin kötü şöhretli savunucuları olan yüksek profilli isimleri de içeriyordu. Bu, benzer veri kullanımı endişelerinden dolayı TikTok'un ABD Kongresi huzuruna çıkmasıyla birleşti.


Avrupa ve GDPR mevzuatı, veri gizliliği düzenlemeleri söz konusu olduğunda şu anda diğer ülkelerin ilerisinde olabilir, ancak son haftalarda yaşanan olaylar, dijital teknolojilerin ilerleyişinin ve bunların verilerimize olan bağımlılığının daha yakından incelenmesi gerektiğini gösteriyor.


Verilerin teknoloji tarafından ticari veya başka şekilde kullanılma şekli bir gecede cevaplanamayacak zor bir soru olsa da Politico , özellikle GDPR düzenlemeleriyle ilgili olarak bu sıcak patatesi ChatGPT'nin kendisine attı.


Yanıt bize üzerinde düşünmeye yetecek kadar çok şey bırakıyor: “Zararlı ve yanıltıcı içerik oluşturma potansiyelleri göz önüne alındığında, AB, üretken yapay zeka ve büyük dil modellerini 'yüksek riskli' teknolojiler olarak tanımlamayı düşünmelidir. AB, bu teknolojilerin sorumlu bir şekilde geliştirilmesi, konuşlandırılması ve kullanılması için uygun koruma önlemleri, izleme ve gözetim mekanizmalarını içeren bir çerçeve uygulamayı düşünmelidir."



Bu makale ilk olarak Katie Konyn tarafından 150sec'te yayımlandı.