Tıpkı bir insan gibi metin, resim, ses ve hatta video gibi yeni içerikler oluşturmak için kullanılabilen Üretken AI teknolojisi. Bu teknoloji inanılmaz derecede popüler ve yaygın hale geldi. Europol'den gelen bir rapora göre, çevrimiçi içeriklerin %90'ı birkaç yıl içinde AI tarafından üretilebilir. Ancak Üretken AI iki ucu keskin bir kılıçtır. Bir yandan Üretken AI çeşitli sektörlerde muazzam bir potansiyele sahiptir. Akıllı sohbet robotları aracılığıyla müşteri hizmetlerini iyileştirebilir, sanat ve müzik üreterek yaratıcı endüstrilere yardımcı olabilir ve hatta karmaşık biyolojik süreçleri simüle ederek tıbbi araştırmalara bile yardımcı olabilir. Ancak, bu yenilikleri yönlendiren aynı teknoloji kötü niyetli aktörler tarafından da silahlandırılabilir.
Son zamanlarda, bu teknolojinin dolandırıcılık faaliyetleri için kötüye kullanımında bir artış yaşandı. Üretken modeller giderek daha karmaşık hale geldikçe, kötü niyetli aktörlerin bunları kötü niyetli amaçlar için kullanmak için kullandıkları yöntemler de artıyor. Üretken AI'nın kötüye kullanıldığı çeşitli yolları anlamak, sağlam savunmalar geliştirmek ve dijital platformların bütünlüğünü ve güvenilirliğini sağlamak için çok önemlidir. Kötü niyetli aktörlerin bu teknolojiyi kullanmalarının yeni ve karmaşık yolları giderek daha karmaşık hale gelirken, mağdurlar tarafından halihazırda yaygın olarak bildirilen üretken AI tarafından kolaylaştırılan farklı dolandırıcılık türlerini inceleyeceğiz.
Üretken yapay zekanın en kötü şöhretli kullanımlarından biri, insanların aşırı gerçekçi ancak tamamen sahte tasvirleri olan deepfake videolarının oluşturulmasıdır. Özellikle savaşlar veya seçimler gibi büyük olaylar bağlamında, yüksek profilli politikacılar hedef alındığında, sonuçlar ciddi olabilir. Deepfake'ler yaygın paniğe neden olabilir ve kritik olayları aksatabilir. Örneğin, Ukrayna Devlet Başkanı Volodymyr Zelensky'nin teslim olduğu bir deepfake videosu savaş sırasında dolaşıma girdi ve Hindistan'da, seçimlerden hemen önce, sahte bir videoda Birlik İçişleri Bakanı Amit Shah'ın tüm kast temelli rezervasyonların kaldırılacağını iddia ettiği gösterildi ve bu da topluluklar arasında gerginliğe yol açtı. Daha yakın bir zamanda, Donald Trump'ın tutuklandığı sahte bir görüntü X'te viral oldu (bkz. Şekil 1).
Gelişmiş AI destekli sohbet robotları, insan konuşmalarını inanılmaz bir doğrulukla taklit edebilir. Dolandırıcılar, banka temsilcilerini taklit etmek için AI sohbet robotlarını kullanarak kimlik avı saldırıları başlatır. Müşteriler, hesap sorunlarını çözme bahanesiyle hassas bilgileri ikna edici bir şekilde isteyen bu robotlardan aramalar ve mesajlar alır. Birçok şüphesiz kişi bu dolandırıcılıkların kurbanı olur ve bu da önemli mali kayıplara neden olur. Dolandırıcılar, hileli işlemleri yetkilendirmek için yöneticilerin gerçekçi ses kayıtlarını oluşturmak için AI'yı kullanabilir, bu da "CEO dolandırıcılığı" olarak bilinen bir plandır. Dikkat çekici bir olayda , Hong Kong'lu çokuluslu bir firmanın çalışanı, bir video konferans görüşmesinde şirketin mali işler müdürü gibi davranmak için deepfake teknolojisini kullanan dolandırıcılara 25 milyon dolar ödemeye kandırıldı. Bu dolandırıcılıklar, üst düzey yetkililerin güvenini ve otoritesini suistimal ederek işletmelere önemli mali zararlar verir.
Üretken AI ayrıca sosyal medya aracılığıyla hızla yayılabilen ikna edici sahte haber makaleleri de üretebilir. COVID-19 salgını sırasında, çok sayıda sahte haber makalesi ve sosyal medya gönderisi virüs ve aşılar hakkında yanlış bilgi yaydı. Whatsapp ve diğer sosyal medyada, belirli Ayurvedik ilaçların COVID-19'u iyileştirebileceğini iddia eden ve yaygın paniğe ve yanlış yönlendirilmiş kendi kendine ilaçlama uygulamalarına yol açan birçok zarar verici sahte haber hikayesi vardı. Üretken AI ile dolandırıcıların büyük ölçekli sahte haberler üretmesi ve insanlar arasında panik yaratması oldukça az çaba gerektirir. Örneğin, gerçek kişiler ve gerçek yerlerle kolayca manipüle edilmiş görseller üretebilir ve bunları sansasyonel haberlere dönüştürebilirsiniz. İşte OpenAI'nin DALL-E modeli kullanılarak oluşturulan bir depremde vurulan Tac Mahal'in sahte bir görüntüsünü gösteren bir örnek (Şekil 2).
İşte Şekil 3'te Mumbai'deki Taj otelinin yandığını gösteren bir başka görüntü (2008'deki terör saldırısını anımsatıyor).
Siber suçlular ve kötü niyetli kişiler, itibarların zedelenmesiyle sonuçlanan taciz kampanyaları başlatmak veya daha geleneksel çevrimiçi taciz biçimleri için Üretken AI teknolojisini kullanabilirler. Mağdurlar özel kişiler veya kamu figürleri olabilir. Taktikler arasında sahte resimler, uygunsuz durumlarda veya manipüle edilmiş ortamlarda sahte videolar oluşturmak yer alabilir. Örneğin, Ocak 2024'te pop-megastar Taylor Swift, sosyal medya platformlarında yaygın olarak dolaşan yapay zeka kullanılarak yapılan cinsel içerikli, rızaya dayanmayan deepfake görsellerin en son yüksek profilli hedefi oldu .
Üretken AI sesleri ve benzerlikleri kopyalayabilir ve böylece bireylerin neredeyse her şeyi söylüyor veya yapıyormuş gibi görünmelerini mümkün kılar. Bu teknoloji "deepfake" videolarına benzer ancak sesler için geçerlidir. AI tarafından üretilen sesler, dolandırıcılıkları geliştirmek ve daha ikna edici hale getirmek için kullanılıyor. Örneğin, biri sesinizi internetten kopyalayıp büyükannenizi arayıp ondan para isteyebilir. Tehdit aktörleri, birinin sesinin birkaç saniyesini sosyal medyadan veya diğer ses kaynaklarından kolayca elde edebilir ve üretken AI'yı kullanarak o kişinin söylemesini istedikleri her şeyin tüm metinlerini üretebilir. Bu, hedeflenen kişinin aramanın arkadaşlarından veya akrabalarından geldiğine inanmasına neden olacak ve böylece yakın birinin ihtiyacı olduğunu düşünerek dolandırıcıya para göndermeye kandırılacaktır.
Aşk dolandırıcılıkları artıyor ve Hindistan'da ülkedeki bireylerin %66'sının aldatıcı çevrimiçi flört planlarının kurbanı olduğu bildirildi . Üretken Yapay Zeka kullanılarak tamamen sahte bir kişilik oluşturulabilir. Dolandırıcılar pasaportlar veya Aadhar kartları gibi uydurma belgeler oluşturabilirler. Hatta aşağıda gösterilen güzel bir evin ve lüks bir arabanın önünde sahte bir kişinin görüntüsü gibi kendilerinin sahte görüntülerini bile oluşturabilirler. Sahte bir sesle aramalar bile yapabilir ve sizi Yapay Zeka'nın gerçek bir kişi olduğuna ikna edebilir ve sonunda size karşı hisler geliştirmeniz için duygusal olarak sizi hedef alabilir ve daha sonra sizden para veya hediye sızdırabilirler. İşte Midjourney botu kullanılarak oluşturulan sahte bir kişinin Yapay Zeka tarafından oluşturulmuş görüntüsüne bir örnek (Şekil 4'te).
Aldatıcı reklamcılık, yanlış iddialarda bulunmayı veya tamamen sahte ürün veya hizmetlerin yaratılmasını içerebilir. Bu, tüketicilerin bilgisiz veya hileli satın alımlar yapmasına yol açabilir. GenAI, e-ticaret platformlarında sahte sentetik ürün incelemeleri, derecelendirmeleri ve önerileri oluşturmak için kullanılabilir. Bu sahte incelemeler, düşük kaliteli ürünlerin itibarını yapay olarak artırabilir veya gerçek olanların itibarına zarar verebilir. Dolandırıcılar, tüketicilerin gerçek ve hileli satıcıları ayırt etmesini zorlaştıran, meşru görünen sahte ürün listeleri veya web siteleri oluşturmak için GenAI'yi kullanabilir. Alışveriş yapanlara yanıltıcı bilgiler sağlamak için sohbet robotları veya AI tabanlı müşteri hizmetleri temsilcileri kullanılabilir ve bu da potansiyel olarak bilgisiz satın alma kararlarına yol açabilir. Böylece sahte işletmelerden oluşan bir ekosistem kolayca kurulabilir.
Yukarıdaki örneklerle, zararlı içeriklerin Generative AI kullanılarak korkutucu bir kolaylıkla ölçeklenebilir şekilde oluşturulabileceği açıktır. Generative AI, içeriğin hacmini ve karmaşıklığını artıran bir üretkenlik aracı olarak işlev görür. Amatörler oyuna daha kolay giriyor ve sosyal medyayı finansal kazanç için kullanmaya doğru önemli bir hareket var. Gelişmiş yanlış bilgi yaratıcıları, içeriklerini daha önce ulaşamadıkları ülkelere ve insanlara ulaştırmak için ölçeklenebilirlik ve AI'yı kullanarak kendilerini diğer dillere çevirme konusunda oldukça yeteneklidir. Herkesin AI destekli dolandırıcılıklara karşı uyanık olmak ve kendilerini korumak için atabileceği bazı adımlar vardır. Farkındalık ve dikkat, AI kaynaklı dolandırıcılığa karşı korunmanın anahtarıdır.
İçeriğin kaynağını her zaman doğrulayın. Tüm büyük teknoloji şirketleri, geliştiricilerin filigranları şifrelemesini, yapay zeka tarafından oluşturulanların daha iyi algılanmasını ve gerçekliğini sağlamasını sağlayan önemli bir çözüm olarak yapay zeka tarafından oluşturulan içeriğe filigran eklerken, teknoloji dışı kişilerin genel havuzu bu tür teknolojilerin farkında değildir ve filigranları nasıl tanımlayacaklarını veya yapay zeka tarafından oluşturulan içerik algılama araçlarını nasıl kullanacaklarını bilmezler. Bununla birlikte, herkes tarafından yapılabilecek temel bir şey, şüpheli herhangi bir görüntü, video veya sesli mesajın kaynağını her zaman doğrulamaktır. Tasvir edilen kişi için karakter dışı görünen bir video alırsanız, diğer kaynaklarla çapraz kontrol edin ve kişiyle doğrudan iletişime geçin. Örneğin, kışkırtıcı açıklamalar yapan bir politikacının deepfake videosu resmi kanallar aracılığıyla doğrulanmalıdır. Bir akrabanın kaçırıldığı veya sıkıntıda olduğu bir video, kişiyi veya ortak bir bağlantıyı arayarak doğrulanmalıdır. Benzer şekilde, üst düzey bir yönetici veya banka temsilcisi olduğunu iddia eden birinin hassas bilgiler istediği bir sesli arama, doğrulamak için bir bankanın resmi müşteri hizmetleri numarası gibi bilinen ve güvenilir bir numarayı geri arayarak doğrulanabilir.
Kişisel bilgileri paylaşmayı sınırlayın. Dolandırıcılar genellikle ikna edici deepfake'ler ve sesli mesajlar oluşturmak için sosyal medyadaki ayrıntıları kullanırlar. Adresiniz, telefon numaranız ve finansal bilgileriniz gibi hassas bilgileri yayınlamaktan kaçının. Gönderilerinizin ve kişisel bilgilerinizin görünürlüğünü sınırlamak için sosyal medya hesaplarınızdaki gizlilik ayarlarını düzenleyin. Profilinizi ve gönderilerinizi yalnızca güvendiğiniz arkadaşlarınızın ve ailenizin görüntülemesine izin verin. Facebook veya Instagram'da, yalnızca arkadaşlarınızın gönderilerinizi görebildiğinden emin olmak için gizlilik ayarlarınızı inceleyebilir ve düzenleyebilirsiniz. Tatil planlarınız gibi dolandırıcıların siz yokken sizi hedef almak için kullanabileceği ayrıntıları paylaşmaktan kaçının. Profilinizi ve arkadaş listenizi gizli tutun, böylece dolandırıcılar sahte videolarınız ve sesli aramalarınızla ailenizi ve arkadaşlarınızı hedef almaz. Çevrimiçi olarak erişilebilir kişisel bilgi miktarını sınırlamak, dolandırıcıların sizin hakkınızda veri toplamasını zorlaştırır. Bu, ikna edici deepfake'ler oluşturma veya sizi taklit etme olasılığını azaltır.
Yapay zekanın yönlendirdiği bir çağın eşiğinde dururken, yenilik ve sömürü arasındaki savaş yoğunlaşıyor. Yapay zekanın yönlendirdiği dolandırıcılığın yükselişi sadece bir meydan okuma değil, aynı zamanda harekete geçme çağrısıdır. İkna edici deepfake'ler, gerçekçi ses klonları ve karmaşık kimlik avı planları yaratabilen üretken yapay zeka ile aldatma potansiyeli hiç bu kadar büyük olmamıştı. Yine de, bu tehditlerin ortasında bir fırsat yatıyor: Dijital güvenliğe ve güvene yaklaşımımızı yeniden tanımlama şansı. Farkında olmak yeterli değil; proaktif olmalı, gelişmiş tespit sistemleri ve kamu eğitim kampanyaları geliştirmek için aynı son teknolojiyi kullanmalıyız. Yapay zekanın geleceği önceden belirlenmiş değil. Bugün kararlı bir şekilde harekete geçerek, üretken yapay zekanın vaadinin tehlikelerine kurban gitmeden gerçekleştirildiği bir dijital manzara şekillendirebiliriz. Bu, yükselmemiz, yenilik yapmamız ve korumamız için bir an olsun, herkes için daha güvenli bir dijital dünya sağlayın.