paint-brush
Проблема не в искусственном интеллекте, проблема в больших технологияхк@theantieconomist
977 чтения
977 чтения

Проблема не в искусственном интеллекте, проблема в больших технологиях

к The Anti-Economist8m2023/11/17
Read on Terminal Reader

Слишком долго; Читать

Изучая историю крупных технологических гигантов и их плохую безопасность данных, каковы реальные риски распространения ИИ? Похоже, что это больше связано с использованием данных крупными корпорациями, чем с самим ИИ.
featured image - Проблема не в искусственном интеллекте, проблема в больших технологиях
The Anti-Economist HackerNoon profile picture


Так ли страшен искусственный интеллект, как нас заставили поверить, или это просто крупные технологические гиганты, имеющие опыт неэтичного использования данных, которые собираются продолжать использовать ИИ так же, как они использовали другие наши данные: для набивают карманы настолько, насколько это возможно.


Даже те, кто имеет самые элементарные представления об искусственном интеллекте, понимают, что его сила заключается в его способности понимать данные, и если вы хотите, чтобы языковая модель или ИИ были умнее или обучены для конкретной цели, ключевым элементом являются данные. Именно здесь начинается пересечение ИИ и больших технологий, поскольку технологические гиганты, как ожидается, обладают крупнейшими запасами облачных данных, которые можно использовать для обучения и разработки моделей ИИ.


С 2022 года Google , Microsoft и Amazon инвестировали миллиарды долларов и установили прочные отношения с самыми передовыми компаниями нашего времени по разработке искусственного интеллекта, вскоре после выпуска первой версии Chat GPT.


Даже в рамках таких сделок сотрудники часто сталкиваются с этическими дилеммами, связанными с использованием ИИ в крупных технологиях. Дарио Амодей покинул Open AI, по-видимому, из-за проблем безопасности и этики, связанных с участием Microsoft. Вскоре после этого он основал Anthropic, чтобы помочь другой злой сводной сестре, заработав около $ 1,25 миллиарда долларов инвестиций от Amazon и2 миллиарда долларов из Google.


Учитывая бурное прошлое (и настоящее) крупных технологических компаний, этику конфиденциальности и их бурную поддержку искусственного интеллекта, на данный момент, вероятно, стоит беспокоиться, что проблема не в развитии ИИ, а в проблемах конфиденциальности, которые мы все слишком хорошо знакомы.


Изучая отношения между технологическими гигантами, проблемы конфиденциальности, возможности языковых моделей ИИ и правительственные постановления, крайне важно учитывать риски, связанные с высоким потенциалом ИИ, когда он используется организациями со злыми намерениями.



Революция искусственного интеллекта

Модели изучения языка (LLM) или искусственный интеллект, как его знает большинство людей, представляют собой огромную комбинацию множества алгоритмов, которые вместе способны действовать автономно, создавая результаты на основе информации, на которой он был обучен.


ИИ не такой уж новый инструмент, как многие думают; многие инструменты искусственного интеллекта используются в нашей повседневной жизни. От карт в наших машинах до рекламы в социальных сетях и рекомендаций Netflix — все они используют инструменты искусственного интеллекта, чтобы изучить наш распорядок дня и привычки, а также давать рекомендации и предположения относительно того, чем мы, вероятно, будем заниматься.


При правильном использовании искусственный интеллект способен изменить то, как мы взаимодействуем с технологиями в нашей повседневной жизни. Это не только может сделать нашу жизнь более удобной, но также может изменить доступность для тех, кто иначе не может взаимодействовать с реальностью так же легко, как большинство других. Например, люди с нарушениями зрения могут использовать ИИ рассказать об окружающем мире для лучшей навигации.


ИИ уже используется для оптимизации множества различных процессов, включая электронную коммерцию, технологии здравоохранения, финансы, сельское хозяйство и образование. Облегчаем работу людей. Возможность выполнять автоматические задачи, которые мы, люди, уже выполняем, означает, что нам не нужно тратить так много времени на рутинные задачи, составляющие большую часть работы многих людей, и сосредоточиться на тех областях, где человеческая изобретательность имеет первостепенное значение.


Например, с помощью искусственного интеллекта мне легче выбрать лучший маршрут для поездки на работу сегодня, учитывая строительные работы на Бродвее и пробку в центре города, а это значит, что я могу поспать дополнительно 10 минут и приготовить себе кофе перед уходом. , что сделает мой день намного лучше и позволит мне быть более продуктивным на работе.


Важно помнить, что, в отличие от других инструментов, которые полагаются исключительно на чипы для управления своими функциями, ИИ обучается работе с большими объемами информации, которую он затем изучает и может вызвать, когда мы даем ему определенные подсказки.


Во многом именно здесь начинается взаимосвязь между развитием искусственного интеллекта и большими технологиями, поскольку Google, Amazon и Microsoft обладают одними из крупнейших хранилищ человеческих данных (вероятно, включая ваши), которые они могут и используют для обучения своих моделей искусственного интеллекта.


Немного тревожит тот факт, что компании, которые доказали, что им меньше всего можно доверять в отношении наших данных, возглавляют разработку еще более умного ИИ.


Излишне говорить, что это похоже на путь к катастрофе. И мы, потребители, можем потерять больше всего.


Темная сторона искусственной Луны

Многие из нас в мире технологий с осторожным оптимизмом смотрят на будущее инструментов генеративного ИИ, и мы продолжаем видеть вдохновляющие инновации с использованием технологий ИИ с огромным потенциалом.


Не поймите меня неправильно, ИИ может быть очень полезной вещью в нашем мире, и в настоящее время он используется для создания важнейших технологий, помогающих многим в повседневной жизни, но опасения и сомнения, которые большинство людей имеют по поводу ИИ, должны быть адекватно обоснованы. которые решаются при внедрении таких мощных технологий в нашу повседневную жизнь.


Какими бы ориентированными на прибыль крупные технологические гиганты ни были, они обязаны уважать конфиденциальность данных своих потребителей (эту ответственность они несут). постоянно игнорируется ), и особенно в отношении ИИ, который обучается с использованием данных, становится чрезвычайно важно внимательно относиться к типу данных, которые вы используете для обучения языковых моделей. Некоторые люди на самом деле не хотят, чтобы их фотографии в Facebook, истории в Instagram, история местоположений, финансовые данные и т. д. использовались для обучения модели ИИ. Более того, с более конфиденциальными данными, такими как медицинские, биометрические, финансовые данные и данные о местоположении.


Истерия ИИ неуместна?

Мы определенно видели поглощение в истерии вокруг возможностей ИИ и беспокойства по поводу того, что он украдет рабочие места, обретет разум и, в конечном итоге, догонит человеческую расу, но, если говорить реалистично, нам следует бояться того, что Google использует наши данные против нас, чтобы максимизировать прибыль. Это то, что они ДЕЙСТВИТЕЛЬНО делают, но возможность использовать наши данные против нас становится более серьезной, когда мы начинаем иметь дело с ИИ, который понимает и записывает каждый аспект вашей жизни и доступен не тем людям.


Риски, связанные с обучением моделей ИИ на конфиденциальных/персональных данных

Уже были случаи, когда люди сообщали , что данные, собранные с помощью Amazon Alexa, были запрошены и переданы правоохранительным органам без ордера и использованы против них в уголовном расследовании.


Также произошло множество инцидентов, когда личные данные использовались для продвижения политических программ и потенциального распространения дезинформации. Множество утечек данных, в результате которых данные, собранные крупными технологическими компаниями, попадают в чужие руки, что дает преступникам доступ к личной информации миллионов людей.


Использование персональных данных для обучения моделей ИИ открывает риск потенциальных проблем с нарушением конфиденциальности в результате несанкционированного доступа в процессе ввода и обмена данными. Если с ними не обращаться внимательно и осторожно, в течение длительного процесса использования данных для обучения моделей ИИ они могут передаваться туда и обратно много раз, при этом люди будут иметь нерегулируемый доступ к личным данным. При обработке такой сложной информации в таких больших объемах вполне вероятно, что в результате нарушения мер безопасности произойдет утечка данных, которая приведет к несанкционированному раскрытию конфиденциальной информации.


Важность обучения ИИ на разнообразном наборе данных объясняется вполне реальной и ранее испытанной вероятностью того, что модель ИИ будет иметь предвзятости и дискриминацию на основе полученного обучения. Возьмем, к примеру, распознавание лиц: модель искусственного интеллекта может использоваться для определения того, кто в данном магазине ворует, и обеспечения безопасности в течение трехлетнего периода. Если люди, которые появляются на указанных кадрах с камер наблюдения, преимущественно принадлежат к определенной расе, модель ИИ может начать предсказывать, что любой, кто не входит в эту конкретную группу людей, с большей вероятностью будет воровать. Если данные обучения не являются разнообразными и репрезентативными, модели ИИ может быть сложно точно обобщить свое обучение на разнообразную группу населения.


Если модели ИИ обучаются только на наборе демографических данных, тогда остается значительный риск потенциальных ошибок в самой языковой модели, основанных на предвзятости в данных. Проблема здесь относительно проста; если у определенных групп имеется больше личных данных, то как нам предотвратить предвзятость внутри ИИ? Это может привести к исключению результатов для недостаточно представленных сообществ в наборе данных.


Существует также фактор отсутствия согласия и прозрачности в отношении того, раскрывается ли пользователям, что их данные собираются для использования в обучении моделей ИИ. Сегодня, когда мы постоянно бомбардируемы информацией и часто испытываем паралич выбора, 91% людей не читают условия при подписке на какое-либо приложение, и поэтому возникает вопрос о том, действительно ли потребители точно знают, на что они подписываются, в отношении своих прав на данные. Это может сыграть огромную роль в подрыве доверия пользователей, поскольку исследования уже обнаруживают шокирующе низкий уровень доверия: 42% людей имеют низкое доверие или сейчас доверяют крупным технологическим компаниям.


Это вполне реальная угроза того, что даже эти крупные технологические гиганты подвержены кибератакам, ведущим к массовым утечкам данных, поскольку недавняя история было тщательно продемонстрировано, и такие риски только усиливаются с увеличением использования и передачи больших объемов данных для обучения ИИ. Такие технологические гиганты, как Facebook, имеют напряженную историю с такими кибератаками и утечками пользовательских данных, и это заставляет потребителя задуматься, разумно ли создавать еще одну точку уязвимости, когда технологические гиганты даже не в состоянии справиться с тем, что уже происходит. свои тарелки.


Еще одна потенциальная проблема, которую мы можем увидеть в ближайшие годы с распространением технологий искусственного интеллекта, — это повторная идентификация анонимных данных, которые снова могут раскрыть конфиденциальную информацию, которая может подвергнуть людей риску.


Заключительные мысли

Совершенно очевидно, что у многих людей есть много сомнений в отношении искусственного интеллекта и того, что он может дать рабочей силе (хотя, вероятно, в любом случае это ничего не изменит), но я думаю, что в нашем естественном человеческом инстинкте нужно скептически относиться ко всему новому. , мы забываем, что проблема могла быть здесь с самого начала.


Это не совсем вина среднего работника, эти многомиллиардные корпорации, вероятно, приложили немало усилий, чтобы мы не ненавидели их так сильно, как следовало бы, но все же довольно интересно видеть, как люди демонизируют инструмент, который наносит удар, а не рука, которая им владеет. Независимо от того, разбираетесь ли вы в ИИ или нет, вы все равно, вероятно, знаете о недостатках защиты данных этих технологических гигантов, и поэтому не должно быть сюрпризом, когда в ближайшие 5 лет мы увидим противоречие вокруг неэтичного использования ИИ для Отслеживайте каждый свой шаг и зарабатывайте на этом деньги.



Главное изображение Ади Гольдштейна на Unsplash