Медовый месяц ChatGPT закончился?
ChatGPT покорил мир с момента своего выпуска в прошлом году. Однако недавнее исследование показало, что
Почему компании боятся ChatGPT?
Дело не в том, что они сомневаются в его возможностях. Вместо этого они обеспокоены потенциальными рисками кибербезопасности.
Инструменты генеративного искусственного интеллекта предназначены для обучения на каждом взаимодействии. Чем больше данных вы им предоставите, тем умнее они станут. Звучит здорово, правда?
Но существует неясная зона относительно того, куда направляются данные, кто их видит и как они используются.
Эти проблемы конфиденциальности привели к тому, что итальянский орган по защите данных
Бизнес беспокоит то, что ChatGPT может брать предоставленную пользователем информацию, учиться на ней и потенциально упускать ее при будущих взаимодействиях с другими пользователями.
Рекомендации OpenAI для ChatGPT указывают, что пользовательские данные могут быть просмотрены и использованы для усовершенствования системы. Но что это означает для конфиденциальности данных?
Ответ не однозначен, и именно это вызывает беспокойство.
Исследование Cyberhaven показало, что к 1 июня 10,8% работников использовали ChatGPT на работе, а 8,6% вводили информацию о компании. Тревожная статистика: 4,7% работников ввели конфиденциальную информацию в ChatGPT.
А из-за особенностей работы ChatGPT традиционные меры безопасности отсутствуют. Большинство продуктов безопасности предназначены для защиты файлов от совместного использования или загрузки. Но пользователи ChatGPT копируют и вставляют контент в свои браузеры.
Теперь OpenAI добавила возможность отказа. Пользователи могут потребовать, чтобы их данные не использовались для дальнейшего обучения.
Но отказ не является настройкой по умолчанию. Таким образом, если пользователи не будут осведомлены и не примут упреждающие меры, их взаимодействие может быть использовано для обучения ИИ.
На этом опасения не заканчиваются.
Даже если вы откажетесь, ваши данные все равно будут проходить через систему. И хотя OpenAI уверяет пользователей, что данные обрабатываются ответственно, ChatGPT
Также существует риск, что что-то пойдет не так.
21 марта 2023 года OpenAI отключила ChatGPT из-за сбоя, из-за которого истории чатов неправильно назывались именами разных пользователей. Если бы эти заголовки содержали личную или конфиденциальную информацию, их могли бы увидеть другие пользователи ChatGPT. Ошибка также раскрыла личные данные некоторых подписчиков ChatGPT Plus.
Первая крупная утечка данных ChatGPT произошла в начале этого года и касалась технологического гиганта Samsung . По данным Bloomberg, конфиденциальный внутренний исходный код был
Подобная утечка может иметь серьезные последствия.
И это был не только Samsung. У Amazon , еще одного титана технологической индустрии, были свои проблемы. Компания
Если ChatGPT располагает собственными данными Amazon, что мешает ему непреднамеренно передать их конкурентам?
Быстрое развитие и внедрение инструментов генеративного искусственного интеллекта вынудило регулирующие органы догонять их. Существуют ограниченные рекомендации по ответственному использованию.
Итак, если из-за ИИ произойдет утечка данных, кто будет нести ответственность — компания, использующая инструмент, сотрудники или поставщик ИИ?
В OpenAI
Это подвергает риску компании. Без четких правил им приходится выбирать лучший вариант действий. Вот почему многие сейчас становятся более нерешительными.
Когда дело доходит до внедрения новых технологий, компании часто обращаются к технологическим лидерам. Если технологический гигант внедряет новую инновацию, это часто рассматривается как зеленый свет для других компаний, которые могут последовать этому примеру.
Таким образом, когда такая влиятельная компания, как Microsoft, предлагает неоднозначные сигналы относительно какой-либо технологии, волны ощущаются по всем отраслям.
С одной стороны, Microsoft выразила сомнения по поводу использования инструментов генеративного искусственного интеллекта. В январе Microsoft предупредила сотрудников не передавать «конфиденциальные данные» в ChatGPT.
Но Microsoft также продвигает собственную версию технологии — Azure ChatGPT. Эта итерация обещает более безопасную и контролируемую среду для корпоративных пользователей.
Этот шаг вызывает вопросы: действительно ли Azure ChatGPT невосприимчив к рискам, на которые указала Microsoft в более широком контексте генеративного искусственного интеллекта? Или это стратегический маневр, призванный гарантировать, что бизнес останется в экосистеме Microsoft?
Оценивая любую новую технологию, компании часто оказываются в перетягивании каната между потенциальными преимуществами и потенциальными недостатками.
С ChatGPT компании, похоже, заняли выжидательную позицию.
По мере развития технологии и ее правил есть надежда, что можно будет установить более безопасное и прозрачное использование.
На данный момент ChatGPT отлично подходит для помощи и контента по кодированию. Но я бы не стал доверять ему собственные данные.