paint-brush
Shadow AI: Geleceği Yeniden Şekillendirmek, Ama Maliyeti Ne Olacak?ile@viceasytiger
1,400 okumalar
1,400 okumalar

Shadow AI: Geleceği Yeniden Şekillendirmek, Ama Maliyeti Ne Olacak?

ile Vik Bogdanov7m2024/02/17
Read on Terminal Reader

Çok uzun; Okumak

Amazon Q ve ChatGPT gibi yapay zeka araçlarında ortaya çıkan güvenlik açıklarına yanıt olarak Amazon, Samsung ve Apple gibi büyük şirketler katı yapay zeka kullanım politikaları uygulamaya koydu. Bu çabalara rağmen, çalışanların verimlilik için yapay zekayı kullanma yönündeki kısıtlamaları aştığı ve politika ile uygulama arasındaki önemli bir boşluğun ortaya çıktığı bir "Gölge Yapay Zeka" kültürü ortaya çıktı. Son araştırmalar, kurumsal yasaklara rağmen üretken yapay zekanın işyerinde yaygın ve resmi olmayan bir şekilde kullanıldığını gösteriyor. Bu senaryo, güvenlik kaygılarını yapay zekanın faydalarıyla dengelemenin zorluklarını vurgulayarak kuruluşları, kapsamlı yapay zeka kullanım politikaları geliştirmek, bir inovasyon kültürünü teşvik etmek ve riskleri azaltmak ve yapay zekanın potansiyelinden sorumlu bir şekilde yararlanmak için veri yönetişimini geliştirmek de dahil olmak üzere Gölge Yapay Zekayı yönetmek için stratejiler keşfetmeye zorluyor. .
featured image - Shadow AI: Geleceği Yeniden Şekillendirmek, Ama Maliyeti Ne Olacak?
Vik Bogdanov HackerNoon profile picture


Shadow AI'nin iş üzerindeki etkisini keşfetmek: riskler, stratejiler ve güvenli, yenilikçi bir gelecek arayışı. Şirketler bu yeni sınırda nasıl ilerleyecek?


Aralık 2023'te Amazon, ChatGPT gibi tüketici odaklı sohbet robotlarına daha güvenli bir alternatif vaat eden en son yapay zeka girişimi Q'yu tanıttı. Ancak heyecan kısa sürdü. Duyurudan sadece üç gün sonra Amazon Q tartışmalara karıştı. Çalışanlar, yetersiz güvenlik ve gizlilik önlemleri nedeniyle alarma geçti ve Q'nun Amazon'un katı kurumsal standartlarının gerisinde kaldığı ortaya çıktı. Eleştirmenler, AWS veri merkezi konumları, yayınlanmamış ürün özellikleri ve dahili indirim programları dahil olmak üzere "halüsinasyonlar" ve hassas bilgilerin sızdırılması eğilimini vurguladı . Amazon'un mühendisleri, gelecekteki olumsuz etkileri önlemek için "sev 2" acil durumu olarak etiketlenen kritik sorunları ele alarak hasar kontrol moduna geçmek zorunda kaldı.


Aynı sıralarda Samsung Electronics Co. kendi yapay zeka kaynaklı baş ağrısıyla boğuşuyordu. Hassas dahili kaynak kodu ChatGPT'ye girerek göze çarpan güvenlik açıklarını ortaya çıkardı. Yanıt hızlı oldu: Üretken yapay zeka araçlarına şirket genelinde yasak getirileceği şirket içi bir not aracılığıyla iletildi. Samsung'un kararı, Google Gemini ve Microsoft Copilot gibi veri alımı ve silinmesi üzerinde kontrolün zor olduğu harici yapay zeka platformlarındaki verileri yönetmenin zorluklarını vurguladı. Bu hamle, bu yapay zeka hizmetlerini dijital bir Truva atı olarak gören Samsung çalışanlarının %65'inin endişelerini yansıtıyordu. Yasağın üretkenlik üzerindeki etkisine rağmen Samsung kararlılığını sürdürdü ve güvenli bir yapay zeka kullanan ortam oluşturulana kadar çeviri, belge özetleme ve yazılım geliştirme için şirket içi yapay zeka çözümleri geliştirmeyi tercih etti.


Apple da bu mücadeleye katılarak çalışanlarının ChatGPT ve benzeri yapay zeka destekli araçları kullanmasını yasakladı. Yasaklamanın bir kısmı, araçların doğrudan rakibi olan Microsoft ile olan bağlantılarından kaynaklanıyordu ve bu da Apple'ın hassas veri güvenliğine ilişkin korkuları artırıyordu. Bu trend yalnızca teknoloji devlerine özgü değildi; JPMorgan Chase , Deutsche Bank, Wells Fargo ve diğerleri gibi finansal devler de hassas finansal bilgileri üçüncü tarafların gözünden korumayı amaçlayarak yapay zeka sohbet robotlarının kullanımını sınırladı.


Ancak bu kısıtlamalar, yanlışlıkla çalışanların kişisel cihazlarını verimlilik ve zaman tasarrufu arayışı içinde kullandıkları bir "Gölge Yapay Zeka" kültürünü doğurdu ve yapay zeka kullanımında önemli bir politika-uygulama boşluğunun altını çizdi.

Gölge Yapay Zeka: Görünmeyen Tehdit

Somut veriler az olsa da, yapay zeka kısıtlamalarına sahip şirketlerde çalışan çok sayıda kişi bu tür geçici çözümler kullandıklarını itiraf etti ; bunlar yalnızca bu konuda açık olanlardır! Bu Gölge Yapay Zeka kullanımı birçok kuruluşta yaygındır ve yapay zekanın şirket politikalarıyla çelişecek veya ihlal edecek şekilde kullanılmasını teşvik eder, böylece çalışanların gizlemek zorunda kaldıkları bir faaliyet haline gelir.


Bu konuyu daha derinlemesine araştırdıkça, şirketlerin işyerinde genAI kullanımını kısıtladığına dair çok sayıda hikayeye rağmen çalışanların bunu daha az kullanmadığını doğrulayan bazı yeni çalışmalar buldum. Dell tarafından yakın zamanda yapılan bir araştırma, ankete katılanların %91'inin hayatlarında belirli bir kapasitede üretken yapay zeka ile ilgilendiğini, diğer %71'inin ise bunu özellikle iş yerinde kullandığını bildirdiğini gösteriyor .


ISACA tarafından yürütülen çalışma, işyerinde yapay zekanın benimsenmesi ile Avustralya ve Yeni Zelanda'da yapay zekanın kullanımını düzenleyen resmi politikalar arasında önemli bir uçurumun altını çiziyor. Bu bölgelerdeki çalışanların %63'ü çeşitli görevler için yapay zekayı kullanırken kuruluşların yalnızca %36'sı buna resmi olarak izin veriyor. Anket, yapay zekanın yazılı içerik oluşturmak (%51), üretkenliği artırmak (%37), tekrarlanan görevleri otomatikleştirmek (%37), karar almayı geliştirmek (%29) ve müşteri hizmetlerini (%20) geliştirmek için kullanıldığını ortaya koyuyor. Ancak kuruluşların yalnızca %11'inin yapay zeka kullanımına yönelik kapsamlı bir politikası var ve %21'inin herhangi bir politika oluşturma niyeti yok.


Dahası, ISACA tarafından yapılan çalışma, kuruluşlar içinde yapay zeka ile ilgili eğitim eksikliğine işaret ediyor; yalnızca %4'ü bunu tüm personele sunuyor ve %57'si, yapay zeka teknolojilerinden doğrudan etkilenenlere bile herhangi bir eğitim vermiyor. Bu durum, çalışanların BT kaynaklarını resmi onay olmadan kullandığı ve potansiyel olarak kurumsal güvenlik ve yönetişimi riske attığı Gölge BT ile ilgili endişelere benzer endişeleri artırmaktadır.


Risk ve Sorumlulukta Yeni Sınırda Gezinmek

Shadow IT'nin işletmelere gizlice sızması gibi, Shadow AI da zaten mevcut ve kuruluşları, bir yandan onu nasıl kullanacaklarını bulmaya çalışırken bir yandan da GenAI duruşlarıyla doğrudan yüzleşmeye zorluyor.


Uzmanlar, üretkenliği önemli ölçüde artırdığı ve zamandan tasarruf sağladığı için korkulukların çalışanların yapay zeka araçlarını kullanmasını engellemeyeceğine inanıyor . Bu nedenle şirket CIO'larının bu sorunla yüzleşmesi ve kuruluşlarının risk toleransıyla uyumlu hafifletme stratejilerini keşfetmesi gerekiyor. Kaçınılmaz olarak, iyi niyetli çalışanlar verimliliklerini artırmak için bu araçları kullanacaklardır; böylece kurumsal teknoloji liderleri, bu eğilimi proaktif bir şekilde ele alarak ve onu etkili bir şekilde yöneterek kuruluşa gelebilecek olası zararları önleyebilir.


Her çalışanın yapay zeka araçlarıyla etkileşimi potansiyel bir güvenlik açığı noktası olabilir.


Shadow IT'nin geçmişi, 30.000 kişinin kişisel verilerinin kamuya açıklanmasına yol açan, güvenli olmayan Amazon S3 paketlerini içeren kötü şöhretli olaylar gibi önemli veri ihlalleriyle işaretlenmiştir. Bu tarihsel emsaller, yapay zeka çağında sıkı veri yönetimi ihtiyacını vurgulayan uyarıcı bir öykü görevi görüyor.


Shadow AI, çeşitli nedenlerden dolayı Shadow IT'den daha zorlu bir mücadeledir. Birincisi, yapay zeka araç kullanımının merkezi olmayan doğası, veri kötüye kullanımı veya sızıntısı potansiyelinin çalışanların teknik bir alt kümesiyle (örneğin geliştiriciler) sınırlı olmadığı, tüm kuruluşa yayıldığı anlamına gelir. Ek olarak, AIaaS (Hizmet olarak AI) modelleri, doğası gereği işledikleri verilerden öğrenerek ikili bir risk katmanı oluşturur: AI satıcıları tarafından hassas verilere erişme olasılığı ve kötü aktörlerin açığa çıkan verileri keşfetme ve bunlardan yararlanma konusundaki gelişmiş kapasitesi.

Gölge Yapay Zekayla Mücadele Stratejileri

EMEA ve Asya'nın bölgesel başkan yardımcısı ve SAS'ın dijital dönüşüm başkanı Amir Sohrabi'ye göre, veriye öncelik veren bir zihniyete sahip teknoloji liderleri, 2024 ve sonrasında verimliliği artırabilecek. Bunun nedeni, üretken yapay zeka araçlarının faydalarını en üst düzeye çıkarmanın iyi organize edilmiş verilere bağlı olması ve veri erişimi, hijyen ve yönetişimi kapsayan sağlam veri yönetimi uygulamalarını gerektirmesidir.


Dell Technologies'in Yapay Zeka Geni ve Bulut Evangelist Lideri Nick Brackney, CIO.com için yazdığı makalesinde , işletmelerin Gölge Yapay Zeka ile başarılı bir şekilde mücadele etmek için kullanması gereken "üç kuralcı yola" işaret ediyor.


İlk olarak, kullanım örneklerini tanımlamak, güvenli erişim oluşturmak ve verileri korumak için yönetici liderliği içeren, üretken yapay zeka kullanımına yönelik merkezi bir strateji oluşturun. Bu yaklaşım, kuruluş çapında uygulama ve ölçeklendirmeyi basitleştirirken, başarıyı garantilemek için kolay kazançlar oluşturmak ve belirlemek için çaba gerektirir.


İkinci olarak, verilerinizi düzenli tutun ve ticari sırlar ve hassas bilgiler gibi hangi türlerin genel veya barındırılan özel bulut yapay zeka tekliflerine yerleştirilmemesi gerektiğini anlayın. Bu tür veriler için tam kontrol sağlayan veya konuşma günlüklerini tutmayan yapay zeka çözümlerini kullanın.


Üçüncüsü, yönetişim, çalışan üretkenliği ve güvenli veri erişimi avantajlarından yararlanmak için AI hizmetini şirket içi veya güvenli bulut çözümleri aracılığıyla verilerinize getirerek kontrol edin. Bu yaklaşım, son kullanıcı deneyimini geliştirerek uyumluluğu sağlar ve verilerin açığa çıkması riskini azaltır.


Açık bir Yapay Zeka Kabul Edilebilir Kullanım Politikası oluşturmak, kuruluşunuza potansiyel olarak zarar verebilecek uygunsuz yapay zeka uygulamalarını tanımlamak ve yapay zeka uygulamalarının veri güvenliği protokolleri ve risk yönetimi stratejileri doğrultusunda entegrasyonuna rehberlik etmek için çok önemlidir. Bu politika, karar vericilerin kuruluş içindeki yapay zeka araçlarının kullanımını yerleşik yönergelere göre değerlendirmesine, maruz kalınan riskleri hızlı bir şekilde tespit etmesine ve gerekli düzeltici eylemleri belirlemesine olanak tanıyan bir kıyaslama işlevi görür.


Pennsylvania Üniversitesi Wharton Okulu'nda profesör olan Ethan Mollick, düşündürücü başka bir yaklaşım sunuyor . Yeni teknolojileri entegre etmeye yönelik geleneksel yöntemlerin, merkezi yapıları ve yavaş hızları nedeniyle yapay zeka için etkisiz olduğuna, bu durumun BT departmanlarının rekabetçi şirket içi yapay zeka modelleri geliştirmesini veya danışmanların özel rehberlik sağlamasını zorlaştırdığına inanıyor. Yapay zeka uygulamasının gerçek potansiyeli, kendi işlerinde uzman olan çalışanlarda yatmaktadır; bu da kuruluşların yapay zekadan gerçek anlamda faydalanabilmesi için iş güçlerini ("Gizli Cyborg'lar" olarak da bilinir) yapay zeka teknolojilerini kullanmaya dahil etmeleri gerektiğini öne sürmektedir.


Her şeyden önce markalar, resmi rolleri veya geçmiş performansları ne olursa olsun, her seviyedeki çalışanın değerli yapay zeka becerilerine sahip olabileceğini kabul etmelidir. Yapay zeka konusunda bilgili çalışanları arasında gizli siborgları tespit eden şirketler, kitle kaynaklı hızlı kütüphaneler gibi kolektif bir öğrenme ortamını teşvik etmeli ve yapay zeka nedeniyle iş kaybına karşı güvenceler sunarak yapay zeka konusundaki endişeyi azaltan bir kültür yaratmalı, yapay zeka kullanımını teşvik etmelidir. Sıradan görevleri ortadan kaldırmak ve daha ilgi çekici işleri teşvik etmek için yapay zeka.


Çalışanlar arasında açık yapay zeka kullanımını teşvik etmek için psikolojik güvenliğin sağlanması çok önemlidir.


İşverenler, yapay zekanın kuruluşa yardımcı olabileceği önemli fırsatları belirleme konusunda önemli ödüller sunabilmelidir. Bu, finansal teşvikleri, terfileri veya esnek çalışma koşullarını içerebilir ve oyunlaştırma yoluyla ele alınabilir.


Günümüzün kuruluşları, yapay zekadan elde edilen verimlilik kazanımlarının nasıl kullanılacağını, iş süreçlerinin yapay zeka yetenekleri ışığında nasıl yeniden düzenlenmesi gerektiğini ve veri halüsinasyonları ve fikri mülkiyet endişeleri gibi yapay zeka kullanımıyla ilişkili potansiyel risklerin nasıl yönetileceğini belirlemek için hızlı hareket etmelidir. Bu, kapsamlı yapay zeka politikalarının oluşturulması, her düzeydeki çalışanların içgörülerinden yararlanması için katılımın sağlanması ve yapay zeka odaklı yeniliği ödüllendiren bir kültürün teşvik edilmesi için proaktif bir yaklaşım gerektirir.


Teknoloji tutkunları ve işletmeler yapay zeka entegrasyonunun karmaşıklıklarında yol alırken, bu dönüştürücü teknolojiyi kuruluşunuzda veya kişisel projelerinizde sorumlu ve yenilikçi bir şekilde kullanmak ve gizlilik, güvenlik ve verimliliğe dengeli bir yaklaşım sağlamak için hangi stratejileri uygulayacaksınız?


Yapay zekanın kirli sırrını keşfetmek için önceki makaleme göz atmayı unutmayın!