Shadow AI'nin iş üzerindeki etkisini keşfetmek: riskler, stratejiler ve güvenli, yenilikçi bir gelecek arayışı. Şirketler bu yeni sınırda nasıl ilerleyecek? Aralık 2023'te Amazon, ChatGPT gibi tüketici odaklı sohbet robotlarına daha güvenli bir alternatif vaat eden en son girişimi Q'yu tanıttı. Ancak heyecan kısa sürdü. Duyurudan sadece üç gün sonra Amazon Q tartışmalara karıştı. Çalışanlar, yetersiz güvenlik ve gizlilik önlemleri nedeniyle alarma geçti ve Q'nun Amazon'un katı kurumsal standartlarının gerisinde kaldığı ortaya çıktı. Eleştirmenler, AWS veri merkezi konumları, yayınlanmamış ürün özellikleri ve dahili indirim programları dahil olmak üzere "halüsinasyonlar" ve hassas bilgilerin sızdırılması eğilimini . Amazon'un mühendisleri, gelecekteki olumsuz etkileri önlemek için "sev 2" acil durumu olarak etiketlenen kritik sorunları ele alarak hasar kontrol moduna geçmek zorunda kaldı. yapay zeka vurguladı Aynı sıralarda Samsung Electronics Co. kendi yapay zeka kaynaklı baş ağrısıyla boğuşuyordu. Hassas dahili kaynak kodu ChatGPT'ye girerek göze çarpan güvenlik açıklarını ortaya çıkardı. Yanıt hızlı oldu: Üretken yapay zeka araçlarına şirket genelinde yasak getirileceği şirket içi bir not aracılığıyla iletildi. Samsung'un kararı, Google Gemini ve Microsoft Copilot gibi veri alımı ve silinmesi üzerinde kontrolün zor olduğu harici yapay zeka platformlarındaki verileri yönetmenin zorluklarını vurguladı. Bu hamle, bu yapay zeka hizmetlerini dijital bir olarak gören endişelerini yansıtıyordu. Yasağın üretkenlik üzerindeki etkisine rağmen Samsung kararlılığını sürdürdü ve güvenli bir yapay zeka kullanan ortam oluşturulana kadar çeviri, belge özetleme ve yazılım geliştirme için şirket içi yapay zeka çözümleri geliştirmeyi tercih etti. Truva atı Samsung çalışanlarının %65'inin Apple da bu mücadeleye katılarak çalışanlarının ChatGPT ve benzeri yapay zeka destekli araçları kullanmasını yasakladı. Yasaklamanın bir kısmı, araçların doğrudan rakibi olan Microsoft ile olan bağlantılarından kaynaklanıyordu ve bu da Apple'ın hassas veri güvenliğine ilişkin korkuları artırıyordu. Bu trend yalnızca teknoloji devlerine özgü değildi; , Deutsche Bank, Wells Fargo ve diğerleri gibi finansal devler de hassas finansal bilgileri üçüncü tarafların gözünden korumayı amaçlayarak yapay zeka sohbet robotlarının kullanımını sınırladı. JPMorgan Chase Ancak bu kısıtlamalar, yanlışlıkla çalışanların kişisel cihazlarını verimlilik ve zaman tasarrufu arayışı içinde kullandıkları bir "Gölge Yapay Zeka" kültürünü doğurdu ve yapay zeka kullanımında önemli bir politika-uygulama boşluğunun altını çizdi. Gölge Yapay Zeka: Görünmeyen Tehdit Somut veriler az olsa da, yapay zeka kısıtlamalarına sahip şirketlerde çalışan çok sayıda kişi bu tür geçici çözümler kullandıklarını ; bunlar yalnızca bu konuda açık olanlardır! Bu Gölge Yapay Zeka kullanımı birçok kuruluşta yaygındır ve yapay zekanın şirket politikalarıyla çelişecek veya ihlal edecek şekilde kullanılmasını teşvik eder, böylece çalışanların gizlemek zorunda kaldıkları bir faaliyet haline gelir. itiraf etti Bu konuyu daha derinlemesine araştırdıkça, dair rağmen doğrulayan bazı yeni çalışmalar buldum. Dell tarafından yakın zamanda yapılan bir araştırma, ankete katılanların %91'inin hayatlarında belirli bir kapasitede üretken yapay zeka ile ilgilendiğini, diğer %71'inin ise bunu özellikle iş yerinde kullandığını bildirdiğini . şirketlerin işyerinde genAI kullanımını kısıtladığına çok sayıda hikayeye çalışanların bunu daha az kullanmadığını gösteriyor tarafından yürütülen çalışma, işyerinde yapay zekanın benimsenmesi ile Avustralya ve Yeni Zelanda'da yapay zekanın kullanımını düzenleyen resmi politikalar arasında önemli bir uçurumun altını çiziyor. Bu bölgelerdeki çalışanların %63'ü çeşitli görevler için yapay zekayı kullanırken kuruluşların yalnızca %36'sı buna resmi olarak izin veriyor. Anket, yapay zekanın yazılı içerik oluşturmak (%51), üretkenliği artırmak (%37), tekrarlanan görevleri otomatikleştirmek (%37), karar almayı geliştirmek (%29) ve müşteri hizmetlerini (%20) geliştirmek için kullanıldığını ortaya koyuyor. Ancak kuruluşların yalnızca %11'inin yapay zeka kullanımına yönelik kapsamlı bir politikası var ve %21'inin herhangi bir politika oluşturma niyeti yok. ISACA Dahası, ISACA tarafından yapılan çalışma, kuruluşlar içinde yapay zeka ile ilgili eğitim eksikliğine işaret ediyor; yalnızca %4'ü bunu tüm personele sunuyor ve %57'si, yapay zeka teknolojilerinden doğrudan etkilenenlere bile herhangi bir eğitim vermiyor. Bu durum, çalışanların BT kaynaklarını resmi onay olmadan kullandığı ve potansiyel olarak kurumsal güvenlik ve yönetişimi riske attığı Gölge BT ile ilgili endişelere benzer endişeleri artırmaktadır. Risk ve Sorumlulukta Yeni Sınırda Gezinmek Shadow IT'nin işletmelere gizlice sızması gibi, Shadow AI da zaten mevcut ve kuruluşları, bir yandan onu nasıl kullanacaklarını bulmaya çalışırken bir yandan da GenAI duruşlarıyla doğrudan yüzleşmeye zorluyor. Uzmanlar, üretkenliği önemli ölçüde artırdığı ve zamandan tasarruf sağladığı için korkulukların çalışanların yapay zeka araçlarını kullanmasını engellemeyeceğine . Bu nedenle şirket CIO'larının bu sorunla yüzleşmesi ve kuruluşlarının risk toleransıyla uyumlu hafifletme stratejilerini keşfetmesi gerekiyor. Kaçınılmaz olarak, iyi niyetli çalışanlar verimliliklerini artırmak için bu araçları kullanacaklardır; böylece kurumsal teknoloji liderleri, bu eğilimi proaktif bir şekilde ele alarak ve onu etkili bir şekilde yöneterek kuruluşa gelebilecek olası zararları önleyebilir. inanıyor Her çalışanın yapay zeka araçlarıyla etkileşimi potansiyel bir güvenlik açığı noktası olabilir. Shadow IT'nin geçmişi, 30.000 kişinin kişisel verilerinin kamuya açıklanmasına yol açan, içeren kötü şöhretli olaylar gibi önemli veri ihlalleriyle işaretlenmiştir. Bu tarihsel emsaller, yapay zeka çağında sıkı veri yönetimi ihtiyacını vurgulayan uyarıcı bir öykü görevi görüyor. güvenli olmayan Amazon S3 paketlerini Shadow AI, çeşitli nedenlerden dolayı Shadow IT'den daha zorlu bir mücadeledir. Birincisi, yapay zeka araç kullanımının merkezi olmayan doğası, veri kötüye kullanımı veya sızıntısı potansiyelinin çalışanların teknik bir alt kümesiyle (örneğin geliştiriciler) sınırlı olmadığı, tüm kuruluşa yayıldığı anlamına gelir. Ek olarak, doğası gereği işledikleri verilerden öğrenerek ikili bir risk katmanı oluşturur: AI satıcıları tarafından hassas verilere erişme olasılığı ve kötü aktörlerin açığa çıkan verileri keşfetme ve bunlardan yararlanma konusundaki gelişmiş kapasitesi. AIaaS (Hizmet olarak AI) modelleri, Gölge Yapay Zekayla Mücadele Stratejileri EMEA ve Asya'nın bölgesel başkan yardımcısı ve SAS'ın dijital dönüşüm başkanı göre, veriye öncelik veren bir zihniyete sahip teknoloji liderleri, 2024 ve sonrasında verimliliği artırabilecek. Bunun nedeni, üretken yapay zeka araçlarının faydalarını en üst düzeye çıkarmanın iyi organize edilmiş verilere bağlı olması ve veri erişimi, hijyen ve yönetişimi kapsayan sağlam veri yönetimi uygulamalarını gerektirmesidir. Amir Sohrabi'ye Dell Technologies'in Yapay Zeka Geni ve Bulut Evangelist Lideri Nick Brackney, CIO.com için yazdığı , işletmelerin Gölge Yapay Zeka ile başarılı bir şekilde mücadele etmek için kullanması gereken "üç kuralcı yola" işaret ediyor. makalesinde İlk olarak, kullanım örneklerini tanımlamak, güvenli erişim oluşturmak ve verileri korumak için yönetici liderliği içeren, üretken yapay zeka kullanımına yönelik merkezi bir strateji oluşturun. Bu yaklaşım, kuruluş çapında uygulama ve ölçeklendirmeyi basitleştirirken, başarıyı garantilemek için kolay kazançlar oluşturmak ve belirlemek için çaba gerektirir. İkinci olarak, verilerinizi düzenli tutun ve ticari sırlar ve hassas bilgiler gibi hangi türlerin genel veya barındırılan özel bulut yapay zeka tekliflerine yerleştirilmemesi gerektiğini anlayın. Bu tür veriler için tam kontrol sağlayan veya konuşma günlüklerini tutmayan yapay zeka çözümlerini kullanın. Üçüncüsü, yönetişim, çalışan üretkenliği ve güvenli veri erişimi avantajlarından yararlanmak için AI hizmetini şirket içi veya güvenli bulut çözümleri aracılığıyla verilerinize getirerek kontrol edin. Bu yaklaşım, son kullanıcı deneyimini geliştirerek uyumluluğu sağlar ve verilerin açığa çıkması riskini azaltır. Açık bir oluşturmak, kuruluşunuza potansiyel olarak zarar verebilecek uygunsuz yapay zeka uygulamalarını tanımlamak ve yapay zeka uygulamalarının veri güvenliği protokolleri ve risk yönetimi stratejileri doğrultusunda entegrasyonuna rehberlik etmek için çok önemlidir. Bu politika, karar vericilerin kuruluş içindeki yapay zeka araçlarının kullanımını yerleşik yönergelere göre değerlendirmesine, maruz kalınan riskleri hızlı bir şekilde tespit etmesine ve gerekli düzeltici eylemleri belirlemesine olanak tanıyan bir kıyaslama işlevi görür. Yapay Zeka Kabul Edilebilir Kullanım Politikası Pennsylvania Üniversitesi Wharton Okulu'nda profesör olan Ethan Mollick, düşündürücü başka bir yaklaşım . Yeni teknolojileri entegre etmeye yönelik geleneksel yöntemlerin, merkezi yapıları ve yavaş hızları nedeniyle yapay zeka için etkisiz olduğuna, bu durumun BT departmanlarının rekabetçi şirket içi yapay zeka modelleri geliştirmesini veya danışmanların özel rehberlik sağlamasını zorlaştırdığına inanıyor. Yapay zeka uygulamasının gerçek potansiyeli, kendi işlerinde uzman olan çalışanlarda yatmaktadır; bu da kuruluşların yapay zekadan gerçek anlamda faydalanabilmesi için iş güçlerini ("Gizli Cyborg'lar" olarak da bilinir) yapay zeka teknolojilerini kullanmaya dahil etmeleri gerektiğini öne sürmektedir. sunuyor Her şeyden önce markalar, resmi rolleri veya geçmiş performansları ne olursa olsun, her seviyedeki çalışanın değerli yapay zeka becerilerine sahip olabileceğini kabul etmelidir. Yapay zeka konusunda bilgili çalışanları arasında tespit eden şirketler, kitle kaynaklı hızlı kütüphaneler gibi kolektif bir öğrenme ortamını teşvik etmeli ve yapay zeka nedeniyle iş kaybına karşı güvenceler sunarak yapay zeka konusundaki endişeyi azaltan bir kültür yaratmalı, yapay zeka kullanımını teşvik etmelidir. Sıradan görevleri ortadan kaldırmak ve daha ilgi çekici işleri teşvik etmek için yapay zeka. gizli siborgları Çalışanlar arasında açık yapay zeka kullanımını teşvik etmek için psikolojik güvenliğin sağlanması çok önemlidir. İşverenler, yapay zekanın kuruluşa yardımcı olabileceği önemli fırsatları belirleme konusunda önemli ödüller sunabilmelidir. Bu, finansal teşvikleri, terfileri veya esnek çalışma koşullarını içerebilir ve oyunlaştırma yoluyla ele alınabilir. Günümüzün kuruluşları, yapay zekadan elde edilen verimlilik kazanımlarının nasıl kullanılacağını, iş süreçlerinin yapay zeka yetenekleri ışığında nasıl yeniden düzenlenmesi gerektiğini ve veri halüsinasyonları ve fikri mülkiyet endişeleri gibi yapay zeka kullanımıyla ilişkili potansiyel risklerin nasıl yönetileceğini belirlemek için hızlı hareket etmelidir. Bu, kapsamlı yapay zeka politikalarının oluşturulması, her düzeydeki çalışanların içgörülerinden yararlanması için katılımın sağlanması ve yapay zeka odaklı yeniliği ödüllendiren bir kültürün teşvik edilmesi için proaktif bir yaklaşım gerektirir. Teknoloji tutkunları ve işletmeler yapay zeka entegrasyonunun karmaşıklıklarında yol alırken, bu dönüştürücü teknolojiyi kuruluşunuzda veya kişisel projelerinizde sorumlu ve yenilikçi bir şekilde kullanmak ve gizlilik, güvenlik ve verimliliğe dengeli bir yaklaşım sağlamak için hangi stratejileri uygulayacaksınız? keşfetmek için önceki makaleme göz atmayı unutmayın! Yapay zekanın kirli sırrını