paint-brush
Теневой ИИ: меняя будущее, но какой ценой?к@viceasytiger
1,404 чтения
1,404 чтения

Теневой ИИ: меняя будущее, но какой ценой?

к Vik Bogdanov7m2024/02/17
Read on Terminal Reader

Слишком долго; Читать

В ответ на возникающие уязвимости безопасности в инструментах искусственного интеллекта, таких как Amazon Q и ChatGPT, крупные компании, такие как Amazon, Samsung и Apple, ввели строгие политики использования искусственного интеллекта. Несмотря на эти усилия, возникла культура «теневого ИИ», когда сотрудники обходят ограничения на использование ИИ для повышения эффективности, что подчеркивает значительный разрыв между политикой и практикой. Недавние исследования показывают широкое неофициальное использование генеративного искусственного интеллекта на рабочем месте, несмотря на корпоративные запреты. Этот сценарий подчеркивает проблемы обеспечения баланса между проблемами безопасности и преимуществами ИИ, подталкивая организации к изучению стратегий управления теневым ИИ, включая разработку комплексных политик использования ИИ, развитие культуры инноваций и улучшение управления данными для снижения рисков и ответственного использования потенциала ИИ. .
featured image - Теневой ИИ: меняя будущее, но какой ценой?
Vik Bogdanov HackerNoon profile picture


Изучение влияния Shadow AI на бизнес: риски, стратегии и поиск безопасного инновационного будущего. Как компании будут ориентироваться на этом новом рубеже?


В декабре 2023 года Amazon представила свое последнее предприятие в области искусственного интеллекта Q, обещая более безопасную альтернативу ориентированным на потребителя чат-ботам, таким как ChatGPT. Однако волнение было недолгим. Всего через три дня после объявления Amazon Q оказался в центре разногласий. Сотрудники были встревожены неадекватными мерами безопасности и конфиденциальности, обнаружив, что Q не соответствует строгим корпоративным стандартам Amazon. Критики подчеркнули склонность компании к «галлюцинациям» и утечке конфиденциальной информации, включая расположение центров обработки данных AWS, неизданные функции продукта и внутренние программы скидок. Инженеры Amazon были вынуждены перейти в режим контроля повреждений, решая критические проблемы, отмеченные как чрезвычайная ситуация «sev 2», чтобы предотвратить будущие последствия.


Примерно в то же время компания Samsung Electronics Co. столкнулась с головной болью, вызванной искусственным интеллектом. Конфиденциальный внутренний исходный код попал в ChatGPT, выявив явные уязвимости безопасности. Реакция была быстрой: о запрете на использование инструментов генеративного искусственного интеллекта в масштабах всей компании было объявлено во внутренней памятке. Решение Samsung подчеркнуло трудности управления данными на внешних платформах искусственного интеллекта, таких как Google Gemini и Microsoft Copilot, где контроль над получением и удалением данных неуловим. Этот шаг отразил обеспокоенность 65% сотрудников Samsung , которые рассматривали эти службы искусственного интеллекта как цифрового троянского коня . Несмотря на влияние запрета на производительность, Samsung оставалась твердой, предпочитая разрабатывать собственные ИИ-решения для перевода, обобщения документов и разработки программного обеспечения до тех пор, пока не будет создана безопасная среда с использованием ИИ.


Apple тоже присоединилась к борьбе, запретив своим сотрудникам использовать ChatGPT и аналогичные инструменты на базе искусственного интеллекта. Частично запрет был вызван связями инструментов с Microsoft, прямым конкурентом, что вызвало опасения по поводу безопасности конфиденциальных данных Apple. Эта тенденция характерна не только для технологических гигантов; финансовые гиганты, такие как JPMorgan Chase , Deutsche Bank, Wells Fargo и другие, также ограничили использование чат-ботов с искусственным интеллектом, стремясь защитить конфиденциальную финансовую информацию от глаз третьих лиц.


Тем не менее, эти ограничения непреднамеренно породили культуру «теневого ИИ», когда сотрудники используют свои личные устройства на работе в стремлении к эффективности и экономии времени, что подчеркивает значительный разрыв между политикой и практикой использования ИИ.

Теневой ИИ: Невидимая угроза

Хотя конкретных данных мало, многие люди в компаниях с ограничениями на ИИ признались , что использовали такие обходные пути — и это только те, кто открыто об этом говорит! Такое использование теневого ИИ широко распространено во многих организациях, поощряя использование ИИ способами, которые противоречат или нарушают политику компании, и таким образом становятся деятельностью, которую сотрудники вынуждены скрывать.


Углубившись в этот вопрос, я обнаружил несколько недавних исследований, подтверждающих, что, несмотря на многочисленные истории о компаниях, ограничивающих использование генИИ на рабочем месте, сотрудники, похоже, не используют его меньше . Недавнее исследование Dell показывает , что 91% респондентов в той или иной степени пробовали в своей жизни генеративный искусственный интеллект, а еще 71% сообщили, что специально использовали его в работе.


Исследование, проведенное ISACA, подчеркивает значительный разрыв между внедрением ИИ на рабочем месте и официальной политикой, регулирующей его использование в Австралии и Новой Зеландии. Хотя 63% сотрудников в этих регионах используют ИИ для различных задач, официально разрешают это только 36% организаций. Опрос показывает, что ИИ применяется для создания письменного контента (51%), повышения производительности (37%), автоматизации повторяющихся задач (37%), улучшения процесса принятия решений (29%) и обслуживания клиентов (20%). Однако только 11% организаций имеют комплексную политику использования ИИ, а 21% не собираются ее устанавливать.


Более того, исследование ISACA указывает на отсутствие обучения, связанного с ИИ, в организациях: только 4% предлагают его всему персоналу, а 57% не проводят никакого обучения, даже тем, кого технологии ИИ непосредственно затрагивают. Эта ситуация вызывает опасения, аналогичные тем, которые возникают в отношении теневых ИТ, когда сотрудники используют ИТ-ресурсы без официального разрешения, потенциально подвергая риску организационную безопасность и управление.


Навигация по новому рубежу риска и ответственности

Подобно тому, как теневые ИТ-отделы проникли в бизнес, теневой ИИ уже присутствует, вынуждая организации открыто противостоять своей позиции в области генного ИИ, в то же время пытаясь выяснить, как его использовать.


Эксперты полагают, что ограничения не помешают сотрудникам использовать инструменты искусственного интеллекта, поскольку они значительно повышают производительность и экономят время. Поэтому ИТ-директора компаний должны решить эту проблему и изучить стратегии смягчения последствий, соответствующие терпимости их организации к риску. Сотрудники с добрыми намерениями неизбежно будут использовать эти инструменты для повышения своей эффективности, поэтому корпоративные технологические лидеры могут предотвратить любой потенциальный вред организации, активно реагируя на эту тенденцию и эффективно управляя ею.


Взаимодействие каждого сотрудника с инструментами ИИ может стать потенциальной точкой уязвимости.


История Shadow IT отмечена серьезными утечками данных, такими как печально известные инциденты с незащищенными корзинами Amazon S3 , которые привели к публичному раскрытию личных данных 30 000 человек. Эти исторические прецеденты служат предостережением, подчеркивая необходимость строгого управления данными в эпоху искусственного интеллекта.


Теневой ИИ представляет собой более сложную задачу, чем теневые ИТ, по нескольким причинам. Во-первых, децентрализованный характер использования инструментов ИИ означает, что возможность неправильного использования или утечки данных не ограничивается технической подгруппой сотрудников (например, разработчиков), а распространяется на всю организацию. Кроме того, модели AIAaS (ИИ как услуга) по своей сути учатся на данных, которые они обрабатывают, создавая двойной уровень риска: возможность доступа к конфиденциальным данным со стороны поставщиков ИИ и расширенные возможности злоумышленников обнаруживать и использовать открытые данные.

Стратегии борьбы с теневым ИИ

По словам Амира Сохраби , регионального вице-президента по региону EMEA и Азии и руководителя отдела цифровой трансформации SAS, технологические лидеры, ориентированные на данные, смогут повысить эффективность в 2024 году и в последующий период. Это связано с тем, что максимизация преимуществ генеративных инструментов искусственного интеллекта зависит от хорошо организованных данных, что требует надежных методов управления данными, включая доступ к данным, гигиену и управление.


В своей статье для CIO.com Ник Брэкни, руководитель отдела искусственного интеллекта и облачных технологий Dell Technologies, указывает на «три основных способа», которые предприятиям следует использовать для успешной борьбы с теневым искусственным интеллектом.


Во-первых, разработайте централизованную стратегию генеративного использования ИИ, привлекая высшее руководство к определению вариантов использования, созданию безопасного доступа и защите данных. Такой подход упрощает внедрение и масштабирование по всей организации, но требует усилий по созданию и выявлению легких побед для обеспечения успеха.


Во-вторых, держите свои данные организованными и понимайте, какие типы данных не следует размещать в общедоступных или размещенных в частных облаках предложениях ИИ, например, коммерческую тайну и конфиденциальную информацию. Используйте решения искусственного интеллекта, которые обеспечивают полный контроль или не сохраняют журналы разговоров для этих типов данных.


В-третьих, контролируйте службу искусственного интеллекта, перенеся ее в свои данные, будь то локально или через безопасные облачные решения, чтобы получить преимущества в управлении, производительности сотрудников и безопасном доступе к данным. Такой подход повышает удобство работы конечных пользователей, обеспечивая соответствие требованиям и снижая риск раскрытия данных.


Разработка четкой политики приемлемого использования ИИ имеет решающее значение для определения неправильных методов ИИ, которые потенциально могут нанести вред вашей организации, а также для управления интеграцией приложений ИИ в соответствии с протоколами безопасности данных и стратегиями управления рисками. Эта политика служит эталоном, позволяя лицам, принимающим решения, оценивать использование инструментов ИИ в организации на соответствие установленным рекомендациям, быстро выявлять любые риски и определять необходимые корректирующие действия.


Итан Моллик, профессор Уортонской школы Пенсильванского университета, предлагает еще один подход, заставляющий задуматься. Он считает, что традиционные методы интеграции новых технологий неэффективны для ИИ из-за их централизованного характера и медленных темпов, что затрудняет разработку конкурентоспособных собственных моделей ИИ для ИТ-отделов или предоставление консультантам конкретных рекомендаций. Реальный потенциал для применения ИИ заключается в сотрудниках, которые являются экспертами в своей работе. Это означает, что для того, чтобы организации действительно могли извлечь выгоду из ИИ, они должны вовлекать своих сотрудников (так называемых «тайных киборгов») в использование технологий ИИ.


Прежде всего, бренды должны признать, что сотрудники любого уровня могут обладать ценными навыками искусственного интеллекта, независимо от их формальной роли или прошлой деятельности. Обнаружив тайных киборгов среди своих сотрудников, разбирающихся в искусственном интеллекте, компании должны создать среду коллективного обучения, такую как краудсорсинговые библиотеки подсказок, и создать культуру, которая уменьшает опасения вокруг искусственного интеллекта, предлагая гарантии против потери рабочих мест из-за искусственного интеллекта, поощряя использование ИИ для устранения рутинных задач и поощрения более увлекательной работы.


Установление психологической безопасности имеет решающее значение для поощрения открытого использования ИИ среди сотрудников.


Работодатели должны иметь возможность предлагать существенные вознаграждения за выявление значительных возможностей, в которых ИИ может помочь организации. Это может включать финансовые стимулы, продвижение по службе или гибкие условия работы и решаться посредством геймификации.


Сегодняшним организациям следует действовать быстро, чтобы определить, как будет использоваться прирост производительности от ИИ, как следует реорганизовать рабочие процессы с учетом возможностей ИИ и как управлять потенциальными рисками, связанными с использованием ИИ, такими как галлюцинации данных и проблемы интеллектуальной собственности. Это требует активного подхода к разработке комплексной политики в области искусственного интеллекта, привлечения сотрудников всех уровней к использованию их идей и развития культуры, которая поощряет инновации, основанные на искусственном интеллекте.


Пока технофилы и предприятия преодолевают сложности интеграции ИИ, какие стратегии вы будете применять, чтобы ответственно и инновационно использовать эту преобразующую технологию в своей организации или личных проектах, обеспечивая сбалансированный подход к конфиденциальности, безопасности и эффективности?


Не забудьте прочитать мою предыдущую статью, чтобы узнать грязный секрет искусственного интеллекта !