Широкое распространение ИИ требует методических мер по управлению, управлению и обеспечению безопасности его использования.
В последнее время мир стал свидетелем значительного увеличения использования искусственного интеллекта , проникающего во все аспекты цифрового ландшафта. Искусственный интеллект, от автоматизированной обработки до продвинутых алгоритмов, постепенно становится неотъемлемой частью нашей повседневной жизни и деловых операций. Использование технологий искусственного интеллекта в различных отраслях и отраслях растет в беспрецедентных масштабах и в геометрической прогрессии. Это также привело к глубоким последствиям для общества, а также к опасностям и рискам для основных прав человека.
Искусственный интеллект (ИИ) — это широкая область, охватывающая различные методы и подходы машинного обучения, логики и знаний, а также подходы к созданию систем, которые могут выполнять задачи, обычно выполняемые людьми, или требуют человеческих когнитивных способностей. Сюда входят такие задачи, как обработка естественного языка, распознавание изображений, решение проблем и принятие решений. В соответствии с Законом Европейского Союза об искусственном интеллекте и Отчетом ОЭСР об управлении рисками в области искусственного интеллекта, система искусственного интеллекта представляет собой машинную систему, которая для явных или неявных целей на основе получаемых входных данных делает выводы о том, как генерировать выходные данные, такие как прогнозы, контент, рекомендации, или решения, которые могут повлиять на физическую или виртуальную среду.
Существует две широкие классификации:
GAN — это системы машинного обучения, состоящие из двух нейронных сетей, генератора и дискриминатора. Генератор генерирует данные, преобразуя подаваемый в него случайный шум в целевой формат. Сами по себе производители не могут оценить качество своей продукции. Именно здесь на помощь приходит модель дискриминатора. Целью дискриминатора является различие между реальными данными и поддельными данными, генерируемыми генератором. Оба обучаются одновременно: дискриминатор обучается различать реальные данные и данные генератора, а генератор обучается сбивать дискриминатор с толку, создавая все более реалистичные данные. По мере обучения каждая модель становится все лучше справляется со своей задачей, в результате чего генератор может создавать реалистично выглядящий контент. Проблема с GAN заключается в их обучении. Например, GAN могут подвергаться коллапсу модели при обучении, при котором генератор учится генерировать только небольшое количество образцов, достаточное, чтобы сбить с толку дискриминатор, но недостаточное, чтобы быть полезным. Именно здесь на помощь приходит модель диффузии. По сути, модели диффузии обучаются восстанавливать обучающие данные из их версий с шумным полем. После обучения диффузия может создавать совершенно новые изображения из чистого шума. Он итеративно создает изображение посредством постепенного процесса шумоподавления.
Далее, модели авторегрессии основаны на статистике. Он генерирует последовательности данных путем моделирования вероятности следующего элемента в последовательности, обусловленной предыдущими элементами. Затем из этого распределения случайным образом выбирается следующий элемент; использование параметра «температура» может сделать результаты более детерминированными или более случайными, и процесс повторяется. Популярные компоненты нейронных сетей для авторегрессионных моделей включают LSTM и преобразователи (которые позволяют нейронным сетям изучать закономерности в очень больших объемах текстовых обучающих данных). Вместо того, чтобы просто завершать введенную в него последовательность, мы добавляем этап выравнивания в авторегрессионные модели. Здесь модель дополнительно обучается предпочитать определенные пары ввода-вывода другим на основе отзывов людей. Например, в рамках LLM успешно научил модели реагировать на вопросы и команды (обучение с подкреплением).
Данные играют центральную роль в разработке генеративных моделей ИИ, особенно моделей большого языка (LLM). Эти модели используют огромные объемы данных для обучения и уточнения. Например, ChatGPT OpenAI был обучен на обширном наборе данных, включающем более 45 терабайт текстовых данных, собранных из Интернета, включая оцифрованные книги и записи в Википедии. Однако острая потребность в сборе данных с помощью генеративного ИИ может вызвать серьезные опасения, включая непреднамеренный сбор и использование личных данных без согласия отдельных лиц. Исследователи искусственного интеллекта Google также признали, что эти наборы данных, часто большие и полученные из разных мест, могут содержать конфиденциальную личную информацию, даже если они получены из общедоступных данных.
В целом существует два распространенных источника сбора данных:
Публично доступные данные . Парсинг веб-страниц является наиболее распространенным методом сбора данных. Он предполагает извлечение больших объемов информации с общедоступных веб-страниц. Эти данные затем используются в учебных целях или могут быть перепрофилированы для продажи или предоставлены в свободный доступ другим разработчикам ИИ. Данные, полученные с помощью веб-скрапинга, часто включают личную информацию, которой пользователи делятся на платформах социальных сетей, таких как Facebook, Twitter, LinkedIn, Venmo и других веб-сайтах. Хотя люди могут публиковать личную информацию на таких платформах по разным причинам, например, для связи с потенциальными работодателями или приобретения новых друзей, они обычно не намерены использовать свои данные для обучения генеративных моделей ИИ.
Пользовательские данные . Данные, передаваемые пользователями с помощью генеративных приложений искусственного интеллекта, таких как чат-боты, могут храниться и использоваться для обучения без ведома или согласия субъектов данных. Например, пользователи, взаимодействующие с чат-ботами, предоставляющими медицинские консультации, терапию, финансовые услуги и другие услуги, могут разглашать конфиденциальную личную информацию. Хотя такие чат-боты могут содержать условия обслуживания, в которых упоминается, что пользовательские данные могут использоваться для «развития и улучшения сервиса», критики могут утверждать, что модели генеративного ИИ должны запрашивать положительное согласие пользователей или предоставлять четкую информацию о сборе, использовании и хранении данных. данные пользователя.
Многие организации также внедрили генеративные модели искусственного интеллекта в свои продукты или услуги для улучшения своих предложений. Такая интеграция в ряде случаев может также служить источником данных, в том числе персональных данных потребителей, для обучения и тонкой настройки этих моделей.
Потенциальные угрозы включают в себя:
По мере того, как мы вступаем в эпоху сильного влияния генеративных технологий искусственного интеллекта, управление искусственным интеллектом становится все более важным приоритетом для компаний, которые хотят обеспечить безопасное использование данных и искусственного интеллекта, соблюдая при этом юридические и этические требования. В октябре 2023 года «безопасное, надежное и заслуживающее доверия» использование искусственного интеллекта послужило основанием для принятия администрацией Байдена-Харриса в США указа, который последовал сразу за Законом ЕС об искусственном интеллекте, первым в мире комплексным документом об искусственном интеллекте. закон на книгах. Другие страны, такие как Китай, Великобритания и Канада, и даже ряд штатов США провели свои собственные линии на песке, либо предлагая, либо принимая законы, которые подчеркивают важность безопасности, защищенности и прозрачности в области ИИ.
Менеджеры по продуктам и в целом руководители предприятий должны принять этот подход к безопасному использованию ИИ, одновременно включая ИИ в свою бизнес-практику. Эффективное управление ИИ обеспечивает контроль и надзор, гарантируя, что предприятия разрабатывают и управляют своими услугами ИИ ответственно, этично и в соответствии как с внутренней политикой, так и с внешними правилами, документированным, эффективным и наглядным образом. Это позволит предприятиям сохранить доверие, а также усилит подотчетность.
Управление ИИ подразумевает введение рамок, правил, стандартов, юридических требований, политик и передовых практик, которые регулируют, управляют и контролируют использование искусственного интеллекта. Это включает в себя руководство, управление и мониторинг деятельности ИИ для удовлетворения правовых и этических требований. Что касается этики, предприятия должны сосредоточиться на обеспечении высокого уровня прозрачности и безопасности своих моделей искусственного интеллекта, чтобы завоевать и поддерживать доверие клиентов. С юридической точки зрения предприятия должны соблюдать требования законодательства и удовлетворять требования регулирующих органов, в противном случае они рискуют получить существенные финансовые штрафы и нанести ущерб репутации бренда.
По оценкам исследования McKinsey, генеративный искусственный интеллект в будущем может принести от 2,6 до 4,4 триллионов долларов годовой стоимости. Однако, чтобы реализовать этот потенциал, организации должны внедрять ИИ прозрачным, безопасным и заслуживающим доверия способом. Фактически, Gartner предполагает, что организации, которые успешно внедряют безопасный и заслуживающий доверия ИИ, смогут увидеть 50-процентное увеличение внедрения ИИ и достижения бизнес-целей.
К ним относятся следующие:
Примером системы управления ИИ, разработанной Gartner, является AI TRiSM — система управления доверием, рисками и безопасностью ИИ, которая фокусируется на снижении рисков и соответствии законам о конфиденциальности данных при использовании ИИ. Он имеет четыре столпа: 1) Объясняемость и мониторинг модели – для обеспечения прозрачности и надежности. 2) Операции с моделями — предполагают разработку процессов и систем управления моделями ИИ на протяжении всего их жизненного цикла. 3) Безопасность приложений искусственного интеллекта — для обеспечения безопасности и защиты моделей от киберугроз. 4) Конфиденциальность модели — для защиты данных, используемых для обучения или тестирования моделей ИИ, путем управления потоками данных в соответствии с законами о конфиденциальности (ограничения назначения/хранения данных, принципы минимизации/защиты данных). В целом, TRiSM — это подход к повышению надежности, достоверности, безопасности и конфиденциальности моделей ИИ.
Улучшенный обзор систем искусственного интеллекта: находите и каталогизируйте модели искусственного интеллекта. Цель здесь — предоставить компаниям полный и всесторонний обзор использования ими ИИ, идентифицируя и записывая детали всех моделей ИИ, используемых в публичных облаках, частных средах и сторонних приложениях. Он охватывает цели моделей, данные обучения, архитектуру, входные данные, выходные данные и взаимодействия, включая недокументированные или несанкционированные модели ИИ. Создание централизованного каталога этой информации повышает прозрачность, управление и эффективное использование ИИ, способствуя принятию более эффективных решений и управлению рисками. Это важно для раскрытия всего спектра приложений ИИ и устранения операционной разрозненности внутри организации.
Комплексная оценка рисков — оценивайте риски и классифицируйте модели ИИ. Цель здесь — оценить риски своих систем искусственного интеллекта на этапах предварительной разработки и разработки и реализовать шаги по снижению рисков. Он предполагает использование карточек моделей, которые предлагают заранее определенные оценки рисков для моделей ИИ, включая описания моделей, предполагаемое использование, ограничения и этические соображения. Эти рейтинги рисков предоставляют подробную информацию, охватывающую такие аспекты, как токсичность, злонамеренность, предвзятость, соображения авторского права, риски галлюцинаций и даже эффективность модели с точки зрения энергопотребления и времени выполнения выводов. На основе этих рейтингов организации могут решить, какие модели разрешить для развертывания и использования, какие модели заблокировать и какие модели нуждаются в дополнительных ограничениях перед использованием.
Практика прозрачности данных: сопоставляйте и отслеживайте данные в потоках ИИ. Данные поступают в системы ИИ для обучения, настройки и вывода, а на выходе данные выводятся из систем ИИ. Это позволяет компаниям раскрыть полный контекст своих моделей ИИ и систем ИИ. Это сопоставляет модели и системы ИИ со связанными источниками данных и системами, обработкой данных, приложениями SaaS, потенциальными рисками и обязательствами по обеспечению соответствия. Это комплексное сопоставление позволяет группам по обеспечению конфиденциальности, соблюдению требований, безопасности и данным выявлять зависимости, выявлять потенциальные точки сбоя и обеспечивать упреждающий, а не реактивный характер управления ИИ.
Надежные средства контроля безопасности — внедряйте данные в элементы управления ИИ. Это позволяет установить строгий контроль безопасности и конфиденциальности данных, которые вводятся в модели ИИ и генерируются ими. Такие меры контроля включают меры безопасности данных и конфиденциальности, предусмотренные системами безопасности и законами о конфиденциальности соответственно. Например, для удаления идентифицируемых значений из наборов данных могут применяться методы редактирования или анонимизации. Он обеспечивает безопасную загрузку данных в модели искусственного интеллекта в соответствии с корпоративной политикой данных и правами пользователей. Если конфиденциальные данные попадают в модели LLM, их защита становится чрезвычайно сложной. Аналогичным образом, если корпоративные данные преобразуются в векторные формы, их защита становится более сложной. Что касается генерации и вывода данных, защита взаимодействия ИИ требует осторожности против внешних атак, злонамеренного внутреннего использования и неправильных конфигураций. Чтобы обеспечить безопасное общение с ИИ-помощниками, ботами и агентами, необходимо использовать межсетевые экраны LLM для фильтрации вредоносных запросов, запросов и ответов. Эти межсетевые экраны должны быть способны защищать от различных уязвимостей, перечисленных в списке OWASP Top 10 для LLM и в структурах NIST AI RMF, включая атаки с быстрым внедрением и атаки с утечкой данных.
Тщательное соблюдение нормативной базы – соблюдение правил. Предприятия, использующие системы искусственного интеллекта, должны соблюдать специальные правила и стандарты, касающиеся искусственного интеллекта, а также обязательства по конфиденциальности данных, связанные с использованием искусственного интеллекта. Чтобы оптимизировать этот сложный процесс обеспечения соответствия, предприятия могут использовать комплексную автоматизацию соблюдения требований, адаптированную к ИИ. Такая система предлагает широкий каталог глобальных правил и рамок в области искусственного интеллекта, включая, среди прочего, NIST AI RMF и Закон ЕС об искусственном интеллекте. Он облегчает создание отдельных проектов ИИ в своей рамках, позволяя пользователям определять и применять необходимые элементы управления для каждого проекта. Этот процесс включает в себя как автоматические проверки, так и оценки, требующие участия заинтересованных сторон, обеспечивающих целостный подход к обеспечению соответствия.
Предприятия, успешно внедрившие управление ИИ, достигнут
а) Полная прозрачность их санкционированных и несанкционированных систем ИИ.
б) Четкая видимость рисков ИИ
в) Картирование ИИ и данных
г) Мощный автоматизированный ИИ + контроль данных.
д) Соответствие глобальным нормам ИИ.
В целом нам необходимо обеспечить безопасное использование ИИ. Хотя приоритет безопасности может привести к небольшому снижению прибыли бизнеса в краткосрочной перспективе, среднесрочные и долгосрочные выгоды значительны.