ChatGPT'nin piyasaya sürülmesi ve kitlesel olarak benimsenmesinin ardından, pek çok kişinin onun yıkıcı gücünü göz ardı etmeye çalıştığı yollardan biri, yapay zeka (AI) modellerinin duyguyu işleme yeteneğine sahip olmadığı argümanıdır.
ChatGPT tarafından üretilen bazı şiirlerin veya Midjourney tarafından oluşturulan görsellerin sanatsal derinlikten veya yaratıcı ruhtan yoksun olduğunu kabul etmek, bu tür çalışmalar profesyonel sanatçıların gözlerini kamaştırırken oldukça zordur.
Yakın zamanda ise
Üretken konuşmaya dayalı yapay zeka modelleri, insan duygularını tanımak, yorumlamak ve bunlara uygun şekilde yanıt vermek için tasarlanmıştır.
İnsan geri bildiriminden takviyeli öğrenmenin (RHLF) kullanılması, yapay zeka sistemlerinin yeni veya farklı durumlara uyum sağlamak için insan etkileşimlerinden öğrenilen davranışları kullanarak bağlamı işlemesine yardımcı olur.
İnsanlardan gelen geri bildirimleri kabul etme ve farklı durumlarda tepkilerini iyileştirme yeteneği, duygusal açıdan akıllı davranışlara işaret eder.
Daha fazla yapay zeka sistemi insanlarla etkileşime girecek şekilde tasarlandıkça, duygusal zeka yapay zekada popüler hale geliyor. Duygusal zekayı yapay zekaya dahil etmek, geliştiricilerin daha insana benzeyen, insan ihtiyaçlarını ve duygularını daha iyi anlayıp bunlara yanıt verebilen sistemler oluşturmasına yardımcı olur.
Çevrimiçi duygusal destek sohbet uygulaması olan Koko kullanıldı
Başarılı sonuç ayrıca yapay zeka modellerinin, insan meslektaşlarının farkı bilmesine gerek kalmadan duyguları akıllıca işleyebildiğini gösterdi.
Etik veya mahremiyet varken
ChatGPT'nin geniş kabul görmesinden ve büyük başarısından yararlanan Microsoft,
Bing Chat olarak da bilinen chatbot, Prometheus modeli olarak bilinen bir "yetenekler ve teknikler koleksiyonu" oluşturmak için OpenAI'nin üretken konuşma yapay zeka modelini Microsoft'un tescilli modeliyle birleştiriyor.
Model, "ChatGPT'den daha güçlü, yeni, yeni nesil OpenAI büyük dil modeli" olarak alay ediliyor. ChatGPT'nin eğitim verileri 2021 yılı ile sınırlıdır ve araç internete bağlı değildir.
Ancak Bing Chat, bir isteğe verilen yanıtı artırmak için internetten veri çekerek konuşma etkileşimini bir sonraki seviyeye taşıyor.
Güncel bilgileri ve referansları geri bildirimlerine aktarma yeteneği Microsoft'un chatbotunun yapabileceği tek şey değil. Çok güçlü görüşlere sahip olması ve öngörülemez derecede agresif davranmasıyla da ünlüdür.
Nerede olmadı
Bunun aksine, ChatGPT aynı sorguya herhangi bir "tavır" vermeden yanıt verdi.
Bu değişim, yapay zekanın tipik insan duyguları olan arzuları ve ihtiyaçları aktarabildiğinin bir göstergesidir.
Sahte bir yapay zeka, eğitilme şeklinden farklı şekillerde davranan bir yapay zeka modelidir. Bir yapay zeka sistemi öngörülemeyen şekilde davrandığında kullanıcıları için risk oluşturur ve potansiyel olarak zarara neden olabilir.
Bir yapay zeka sisteminin özellikle öngörülemeyen bir durumla karşı karşıya kalması durumunda kararsız davranmasının birkaç nedeni vardır.
Bir yapay zeka sistemi, yetersiz eğitim verileri, hatalı algoritmalar ve taraflı veriler nedeniyle hileli hale gelebilir.
Bir yapay zeka sisteminin kararları nasıl aldığı konusunda şeffaflığın olmaması ve eylemleri ve kararları için hesap verebilirliğin bulunmaması, yapay zeka modellerinin hilekar davranmasına yol açabilecek faktörlerdir.
Bir yapay zeka sistemini başarılı bir şekilde hackleyen tehdit aktörleri, kötü amaçlı yazılım enjekte ederek veya eğitim verilerini zehirleyerek sistemin istenmeyen bir şekilde davranmasına neden olabilir.
Google alıntı yaptı “
Ancak yıkıcı ChatGPT'nin baskısı nedeniyle Google, ilk halka açık demosu sırasında yanlış yanıt vermesi nedeniyle teknoloji devine 100 milyar dolara mal olan Bard'ı piyasaya sürdü.
2022'de Meta şunları yayınladı:
Microsoft, 2016 yılında AI sohbet robotu Tay'ı piyasaya sürülmesinden sonraki bir hafta içinde, çok fazla yayılmaya başladığı için geri çağırdı.
Ancak Bing Chat'in tehdit edici davranışına rağmen Microsoft bunu görmezden geldi
Yapay zeka sistemlerinin nasıl geliştirildiği ve kullanıldığı konusunda etik ve yasal kaygılar var.
Koko'nun sohbet robotu kullanması daha çok etik bir ima olsa da, yapay zeka destekli teknolojilerin dava nedeni olduğu ayrımcı uygulamalar ve insan hakları ihlalleri gibi durumlar da mevcut.
Ancak Bing Chat örneğinde olduğu gibi yapay zekanın hileye başvurması ve zarar verme tehdidinde bulunması durumunda durum farklıdır. Yasal sonuçları olmalı mı? Ve eğer varsa, kim dava ediliyor? Bir yapay zeka sistemi zarara veya hasara neden olduğunda suçluluğu, sorumluluğu ve sorumluluğu belirlemek zordur.
Telif hakkı var
Yapay zeka laboratuvarlarına ve şirketlerine karşı devam eden davalar öncelikli olarak ele alınırsa sahtekar yapay zeka geliştiricilerinin, yapay zeka sistemlerinin hatalı davranışlarından sorumlu tutulabileceğini varsaymak yanlış olmaz.
Hala yapay zeka teknolojilerinin kötüye gitmesi durumunda sorumlu tutulup tutulmayacaklarını düşünen kuruluşlar için AB'nin Yapay Zeka Yasası,
Yapay zeka sistemlerinin nasıl davranacağını sağlama sorumluluğu, bunları operasyonlarında kullanan geliştiricilere ve işletmelere aittir.
Veri korumanın sağlanmasına benzer şekilde işletmeler ve laboratuvarlar, yapay zeka verilerinin ve kodlarının yetkisiz manipülasyonunu azaltmak için uygun kontrollerin uygulanmasını sağlamalıdır.
Sahte yapay zekanın önlenmesi, teknik ve teknik olmayan önlemlerin bir kombinasyonunu gerektirir. Bunlara sağlam testler, şeffaflık, etik tasarım ve yönetim dahildir.
Erişim kontrolü, güvenlik açığı yönetimi, düzenli güncellemeler, veri koruma ve etkili veri yönetimi gibi yeterli siber güvenlik önlemleri, yapay zeka sistemlerine yetkisiz erişimin engellenmesini sağlamak için çok önemlidir.
İnsan gözetimi ve yapay zeka geliştiricileri, araştırmacılar, denetçiler, hukuk uygulayıcıları ve politika yapıcılar gibi farklı paydaşlarla işbirliği, yapay zeka modellerinin güvenilir ve sorumlu bir şekilde geliştirilmesini garanti etmeye yardımcı olabilir.
ChatGPT sadece üç ay içinde dünyamızı değiştirdi. Üretken konuşma robotlarının ve diğer yapay zeka sistemlerinin işletmeleri altüst etme, müşteri deneyimini geliştirme, toplumu dönüştürme ve yenilikçi fırsatlar yaratma konusunda büyük bir potansiyeli var.
Ancak yapay zeka sistemleri, güvenli ve sorumlu bir şekilde geliştirilip dağıtılmadığı takdirde kötüye gidebilir. Rogue AI, kullanıcılar ve toplum için ciddi riskler oluşturabilir. Yapay zeka geliştiricileri ve yapay zeka sistemlerini kullanan işletmeler, yapay zeka sistemlerinin zarar veya hasara yol açması durumunda sorumlu hale gelebilir.
Yapay zeka sistemlerinin amaçlandığı gibi davranmasını sağlamak, yapay zeka geliştiricilerinin, kullanıcılarının ve politika yapıcılarının ortak sorumluluğunu gerektirir.
Yapay zekanın emniyetli, emniyetli ve topluma faydalı bir şekilde geliştirilip dağıtıldığını doğrulamak için uygun teknik, teknik olmayan ve düzenleyici önlemler mevcut olmalıdır.