paint-brush
Deepfake Kimlik Avı 2023'te %3.000 Arttı - Ve Daha Yeni Başlıyorile@zacamos
4,119 okumalar
4,119 okumalar

Deepfake Kimlik Avı 2023'te %3.000 Arttı - Ve Daha Yeni Başlıyor

ile Zac Amos4m2024/02/21
Read on Terminal Reader

Çok uzun; Okumak

Deepfake kimlik avı, daha inandırıcı kimlik avı girişimleri oluşturmak için yapay zeka tarafından oluşturulan içeriği kullanıyor ve bu girişimler yalnızca 2023'te %3000 arttı. Deepfake phishing'e karşı korunmak için kuruluşlar hesap erişimini güvence altına almalı, çalışanları eğitmeli, AI ile AI ile mücadele etmeli, arıza korumaları uygulamalı ve gelişen tehditleri izlemelidir.
featured image - Deepfake Kimlik Avı 2023'te %3.000 Arttı - Ve Daha Yeni Başlıyor
Zac Amos HackerNoon profile picture
0-item

Kimlik avı belki de en kalıcı siber güvenlik tehdididir ve giderek daha da kötüleşiyor. İnsanlar insan oldukları sürece hata yapacaklardır, dolayısıyla insanın zayıf yönlerini hedeflemek her siber suçlu için kesin bir stratejidir. Yıllar geçtikçe bu durum değişmese de, yeni teknoloji bu tehditlerin çok daha kötü bir versiyonunun, yani deepfake phishing'in ortaya çıkmasına yol açtı.

Deepfake Kimlik Avı Nedir?

Deepfakes, gerçeğine oldukça benzeyen sahte içerik oluşturmak için derin öğrenme algoritmalarını kullanıyor. Kamuya mal olmuş bir kişinin asla söylemediği veya yapmadığı bir şeyi yaptığını veya söylediğini gösteren sahte videolar yaygın örneklerdir. Deepfake kimlik avı, daha inandırıcı kimlik avı girişimleri oluşturmak için yapay zeka tarafından oluşturulan bu içeriği kullanır.


Bir örnekte, bir enerji şirketinin CEO'su bir tedarikçiye 220.000 € gönderildi ana şirketin liderinden değişim talebinde bulunan bir telefon aldıktan sonra. Ancak gerçek patron bu transferi asla emretmedi ve “tedarikçi” bir siber suçlunun hesabıydı. Aramanın gerçek liderin sesinin derin bir sahtesi olduğu ortaya çıktı.


Bu saldırılar tehlikelidir çünkü deepfake'lerin gerçeklikten ayırt edilmesi zordur. Ayrıca, ses veya video içeriği şeklinde geldikleri için yazım hataları veya şüpheli bağlantılar gibi kimlik avı belirtileri de olmayabilir. Yapay zeka geliştikçe daha ikna edici hale gelecekler.

Deepfake Kimlik Avının Yükselişi

Deepfake kimlik avı sadece tehlikeli değil aynı zamanda endişe verici bir hızla artıyor. Bir rapora göre, Deepfake dolandırıcılık girişimleri %3.000 arttı Aynı araştırma, siber suçluların biyometrik güvenliği aşmak için derin sahte videolar ve resimler kullandığını ve bunun da hesap güvenliği saldırılarına yol açabileceğini ortaya çıkardı.


Deepfake kimlik avındaki bu artış muhtemelen derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Bu gelişmiş yapay zeka algoritmaları, üst düzey veri bilimi deneyimi veya büyük bir bütçe gerektiriyordu. Artık, kullanımı çok az veya hiç kodlama bilgisi gerektirmeyen çok sayıda ücretsiz veya düşük maliyetli gelişmiş yapay zeka modeli mevcut.


Aynı eğilim gelecekte derin sahte kimlik avı girişimlerini de artıracak gibi görünüyor. Üretken yapay zeka her zamankinden daha erişilebilir. Bunun birçok olumlu sonucu olsa da, siber suçluların yapay zeka tarafından oluşturulan ikna edici sahte içerik oluşturmasının giderek daha kolay hale geldiği anlamına da geliyor.


E-posta kimlik avının ABD'deki işletmelere maliyeti ortalama 4,91 milyon dolar , yaygın deepfake tehditleri olmasa bile. Daha fazla suçlunun bu kazançlı ve nispeten kolay saldırı vektörüne derin sahtekarlık uygulaması an meselesi.

Deepfake Kimlik Avına Karşı Nasıl Korunulur?

Deepfake kimlik avı tehdit edici olsa da kuruluşlar buna karşı koruma sağlayabilir. Aşağıdaki adımlar işletmelerin ve çalışanlarının bu büyüyen tehditlere karşı güvende kalmasına yardımcı olacaktır.

Güvenli Hesap Erişimi

Öncelikle işletmelerin tüm dahili hesaplara erişimi güvence altına alması gerekir. Deepfake kimlik avı, gerçek, güvenilir ancak güvenliği ihlal edilmiş bir hesaptan geldiğinde en etkili yöntemdir. Sonuç olarak, bunlara girmeyi zorlaştırmak bu saldırıları zayıflatacaktır.


Çok faktörlü kimlik doğrulama (MFA) önemlidir ve insanların kullandığı MFA türü de önemlidir. Güvenlik uzmanları deepfake'leri uyardı yüz ve ses tanımayı kandırabilir araçlar olduğundan biyometri en güvenli seçenek değildir. Uygulama tabanlı tek kullanımlık kodlar ve donanım anahtarları, derin sahte tehditler karşısında daha güvenli MFA seçenekleridir.

Çalışanları Eğitin

Olağan kimlik avında olduğu gibi çalışanların eğitimi de çok önemlidir. Deepfake'leri tespit etmek zor olsa da bazı ortak noktalar var. Titreşim veya bulanıklık gibi görsel hatalar ve bozuk sesler gibi garip ses ipuçları, deepfake'lerde yaygındır. Çalışanlara bu işaretleri öğretmek ve onları derin sahte kimlik avına karşı uyarmak, onların bu tuzağa düşme olasılığını azaltacaktır.


Bu eğitimle bile insanlar deepfake'leri %100 doğrulukla tespit edemeyecek. Sonuç olarak, herkesin tedbirli davranması gerektiğini vurgulamak da önemlidir. Genel bir kural olarak, bir şey şüpheli veya biraz tuhaf görünüyorsa, ona güvenmeden önce onu doğrulayın.

Yapay Zeka ile Yapay Zeka ile savaşın

Deepfake kimlik avı daha popüler hale geldikçe, ateşe ateşle karşılık vermek (ya da daha doğrusu yapay zeka ile yapay zeka) daha önemli hale gelecektir. Deepfake'leri mümkün kılan teknoloji, bunların tespit edilmesine yardımcı olabilir ve çeşitli tespit modelleri halihazırda mevcuttur. Alternatif olarak, kapsamlı yapay zeka deneyimine sahip işletmeler kendi yapay zekalarını oluşturabilir.


Tespit modelleri, derin sahtekarlıkları tespit etme konusunda insanlardan daha iyi performans gösterebilir, ancak hiçbir dedektör %100 doğru değildir henüz. Yöntemler geliştikçe siber suçlular da onları aşmanın yeni yollarını geliştirecek. Sonuç olarak yapay zeka korumaları faydalı olsa da kuruluşların bunlara güvenmemesi gerekir.

Arıza Korumaları Uygulama

Hiçbir insan veya yapay zeka modeli deepfake'leri her zaman tespit edemeyeceği için işletmelerin ikinci ve üçüncü savunma hatlarına ihtiyacı vardır. En önemlisi iş akışı veya teknik duraklamalar, tek bir hatanın kuruluşun güvenliğini tehlikeye atmasını önlemelidir. Büyük mali transferler için birden fazla yetkilendirme adımının gerekli kılınması buna iyi bir örnektir.


Birisine hassas verilere erişim izni vermek veya yeterince büyük miktarda para göndermek, birden fazla kişiyi veya kimlik doğrulama önlemlerini gerektirmelidir. Bu duraklamalar verimliliği engelleyebilir ancak çalışanlara eylemleri hakkında düşünmeleri için zaman tanır. Daha fazla insanı ve sistemi dahil etmek, şirketin deepfake saldırısını tespit etme şansını da artıracak.

Gelişen Tehditleri İzleyin

Son olarak, markalar ve güvenlik uzmanları deepfake ve siber suç trendlerini yakından takip etmelidir. Siber suçlar sürekli olarak gelişmektedir ve yapay zeka diğer birçok teknolojiden daha hızlı ilerlemektedir; bu nedenle bazı savunmaların veya en iyi güvenlik uygulamalarının geçerliliğini yitirmesi kolaydır.


Yeni üretken yapay zeka araçları ayda birkaç kez ortaya çıkıyor , ve bu güncellemelerin bazıları tehditleri daha tehlikeli hale getirebilir. Alternatif olarak bazı güncellemeler, derin sahte kimlik avını durdurmanın daha etkili bir yolunu sağlayabilir. Her iki değişikliğin de tanınması eşit derecede önemlidir. Mevcut eğilimlerin sık sık gözden geçirilmesi ve iç güvenlik süreçlerinin denetlenmesi, işletmelerin bu değişimlere ayak uydurmasına yardımcı olacaktır.

Siber Güvenlik Uygulamaları Yeni Tehditlerin Ortasında Gelişmeli

Kimlik avı yeni bir şey olmayabilir ancak deepfake gibi yeni teknolojiler tehlikeli bir boyut katıyor. Yapay zeka ne kadar heyecan verici olsa da siber suçluların şirketlerin kullandığı araçlardan nasıl yararlanabileceğini anlamak da önemlidir. Siber güvenlik uygulamalarını yeni teknolojiyle birlikte geliştirmedeki başarısızlık, kuruluşları daha farkına varmadan savunmasız bırakabilir.


Kimlik avı saldırılarını önlemede farkındalık ve eğitim temel adımlar olmaya devam ediyor. Çalışanlar deepfake'lere dikkat etmeleri gerektiğini bildiklerinde bunlara kanma olasılıkları azalacaktır. Teknik savunmaları sık sık ayarlarken bu insan unsurunu vurgulamak, ilerleyen tehditlere rağmen şirketleri güvende tutacaktır.