paint-brush
ИИ в социальных сетях: этические аспекты ИИ и алгоритмы формирования взаимодействия в социальных сетяхк@nimit
13,415 чтения
13,415 чтения

ИИ в социальных сетях: этические аспекты ИИ и алгоритмы формирования взаимодействия в социальных сетях

к Nimit6m2024/04/30
Read on Terminal Reader

Слишком долго; Читать

В этой статье рассматривается влияние социальных сетей, прослеживается их эволюция и ключевая роль искусственного интеллекта и алгоритмов в персонализации контента. В нем обсуждаются этические последствия, такие как проблемы конфиденциальности и предвзятость, которые возникают в результате использования данных потребителей такими компаниями, как Meta. В статье также рассматривается потенциал алгоритмов для создания эхо-камер и необходимость принятия нормативных мер для устранения алгоритмической предвзятости, направленных на сбалансированный подход между инновациями и защитой пользователей в быстро развивающемся цифровом ландшафте.
featured image - ИИ в социальных сетях: этические аспекты ИИ и алгоритмы формирования взаимодействия в социальных сетях
Nimit HackerNoon profile picture
0-item
1-item

В наши дни социальные сети играют неотъемлемую роль в жизни, влияя на то, как мы общаемся, получаем информацию и делимся ею друг с другом. Несмотря на то, что им меньше 30 лет [1], мы стали свидетелями огромной эволюции таких платформ, как Facebook, Twitter, TikTok и LinkedIn: Facebook теперь является мета-платформой и владеет WhatsApp, Instagram и Threads; Twitter — это X. Оба принадлежат миллиардерам, которые предвидели технологические тенденции, воспользовались этими возможностями и проложили путь к быстро инновационной отрасли.


С точки зрения бизнеса, самым большим движущим успехом социальных сетей являются данные о потребителях. Подавляющее большинство платформ социальных сетей бесплатны и могут работать таким образом, поскольку вы взамен предоставляете им доступ к вашим данным. Благодаря этому такие компании, как Meta, смогли формировать контент и взаимодействие в социальных сетях. Это то, что можно рассматривать как полезное или неэтичное в зависимости от намерений и вариантов использования, при этом такие проблемы, как конфиденциальность и манипуляции, сейчас далеко не редкость.


В этой статье мы углубимся в этику использования ИИ и алгоритмов в социальных сетях, рассмотрим, как они помогают персонализировать контент, потенциально приводя к предвзятости и эхо-камерам, а также будущее ИИ на платформах социальных сетей.

Краткая история алгоритмов и растущие случаи их использования в социальных сетях

«Алгоритм — это серия инструкций, предназначенных для решения конкретных задач, выполнения задач или принятия решений» [2]. В социальных сетях эти инструкции управляют пользовательским опытом, таким как ранжирование, фильтрация и персонализация контента, обычно на основе тенденций для различных групп потребителей. Это позволяет вам как пользователю гораздо быстрее находить контент, который вас заинтересует, поскольку он, скорее всего, появится на страницах «Для вас» без необходимости его поиска.


Алгоритмы не всегда использовались в социальных сетях. В 2009 году Tumblr и Facebook представили показатели ранжирования и персонализированные каналы. В 2012 году их примеру последовало еще больше. Facebook увеличил использование алгоритмов в своей ленте новостей и представил спонсируемый контент [3].LinkedIn запустил «полуструктурированный канал», а YouTube представил алгоритм ранжирования, отдающий приоритет времени просмотра над количеством [4]. С тех пор роль алгоритмов в таких социальных сетях только возрастает. К 2015 году машинное обучение начало играть роль в алгоритмах сортировки и фильтрации, чему способствовали разработки в области больших данных. Политические события 2016 года, такие как выборы Трампа и референдум по Брекситу (а также поворотный год в скандале с Cambridge Analytica), привлекли внимание общественности к некоторым этическим дилеммам, связанным с таким интенсивным и растущим использованием алгоритмов и сбором пользовательских данных в социальных сетях.


В наши дни алгоритмы на базе искусственного интеллекта построены настолько точно, что рекомендуют контент на основе ваших конкретных предыдущих взаимодействий на платформе, а растущие данные о пользователях позволяют компаниям, работающим в социальных сетях, исключить значительную часть любых догадок. Документальные фильмы, такие как «Социальная дилемма» [5] и «Великий взлом» [6], дают некоторое представление о том, насколько устроены некоторые из этих алгоритмов, часто с конечной целью — удержать пользователя на своей платформе дольше и стимулировать взаимодействие с ней. Хотя более активное взаимодействие с пользователем означает больше данных для компаний, занимающихся социальными сетями, для сбора, настройки и повторения этого процесса, эта цель не учитывает, что лучше для пользователя и общества в целом в отношении потребления социальных сетей.

Этические проблемы, возникающие из-за алгоритмической предвзятости

Алгоритмы могут закреплять вредные предубеждения, и в контексте социальных сетей это часто проявляется в укреплении стереотипов и ограничении воздействия различных точек зрения. Достигнув кульминации со временем, это может усилить дискриминацию, поляризовать электорат и даже способствовать экстремизму и правому/автократическому популизму, которые эксплуатируют социальные разногласия.


При низком уровне воздействия примеры алгоритмической предвзятости могут включать в себя объявления о вакансиях для определенных отраслей, например, LinkedIn показывается больше мужчинам, чем женщинам, поскольку наборы обучающих данных, на которых были смоделированы алгоритмы, предсказывают, что больше мужчин, вероятно, будут работать в этих отраслях. роли. Хотя это не обязательно имеет сразу очевидные вредные последствия, оно создает петлю отрицательной обратной связи, которая работает против целей общества по улучшению равенства и представительства на рабочих местах и в конкретных отраслях. Таким образом, гендерная предвзятость увековечивается в результате алгоритмической предвзятости, ограничивая возможности женщин видеть эту рекламу.


Теперь, чтобы углубиться в последствия алгоритмической предвзятости на более высоком уровне, мы рассмотрим выборы Трампа 2016 года в качестве примера.

Практический пример: как алгоритмы повлияли на поляризацию/эхо-камеры на выборах Трампа в 2016 году

Исследования показали, что в ходе президентских выборов в США в 2016 году алгоритмы могли усугубить политическую поляризацию, усиливая эхо-камеры и ограничивая воздействие на электорат различных точек зрения. Многие считают, что именно этот механизм позволил трампизму разрастаться, а также почему так мало людей предсказывали его победу [7], поскольку эта динамика не была полностью понята и не видна в период выборов.


Таким образом, даже в социальных сетях кажется правдой, что «рыбак рыбака слетается в стаи» [8].


Алгоритмы адаптируют контент в соответствии с предпочтениями пользователей, защищая их от противоположных взглядов и мнений и создавая «пузыри фильтров». В свою очередь, некоторые люди внутри этих пузырей фильтров продолжают позитивно подкреплять свои взгляды, еще больше изолируя себя в цифровой среде, где их убеждения и мнения находят отклик и даже более того подкрепляются. Их называют «эхо-камерами».


По сути, социальные сети создают среду, в которой мы все потребляем настолько персонализированные новости и контент, что становимся слепы к различным точкам зрения других.


В настоящее время из исследований неясно, служат ли социальные сети только платформой, позволяющей создавать эхо-камеры, или же использование алгоритмов заходит так далеко, что играет роль в создании этих эхо-камер[8].


Победа Трампа в 2016 году показывает, как планы компаний, занимающихся социальными сетями, могут иметь масштабные последствия, затрагивающие миллионы людей, которые, хотя и непреднамеренны, по-прежнему оказывают огромное влияние и к тому же неэтичны. Мы знаем, что алгоритмы социальных сетей созданы для максимального вовлечения и удержания пользователей за счет предоставления контента с учетом индивидуальных предпочтений. Однако теперь мы видим, как это применимо даже к политическим разговорам, используя политические пристрастия и уязвимости пользователей.


Кто знает, как бы сложились выборы, если бы алгоритмы не влияли на личные политические убеждения людей?


И как это влияет на демократию и политическую стабильность? Если люди не знают об этих манипуляциях, можно ли считать результаты справедливыми и действительными?

Будущее искусственного интеллекта в социальных сетях

Роль алгоритмов и искусственного интеллекта в социальных сетях только продолжает развиваться вместе с нашими инновациями в этих областях. От контента, генерируемого ИИ, до алгоритмов на базе ИИ, обеспечивающих точность, о которой мы говорили ранее, — этические проблемы, возникающие при его интеграции в социальные сети, также необходимо будет все чаще учитывать. Это необходимо начать с устранения алгоритмических предубеждений и продвижения алгоритмической прозрачности на платформах социальных сетей.


Будущие политические соображения и правила будут играть решающую роль в формировании траектории использования ИИ в социальных сетях. Уже сейчас все больше внимания уделяется необходимости алгоритмического регулирования и защиты от вреда, который могут нанести эти невидимые предубеждения, особенно в США. На данный момент инициативы включают[9]:


  • «Закон об алгоритмической подотчетности 2022 года»
  • «Закон об устранении предвзятости в алгоритмических системах 2023 года»
  • «Билль о правах ИИ»


Несмотря на то, что в настоящее время на стадии разработки предложений разрабатывается больше рамок, регулирование таких мощных технологий по-прежнему недостаточно, если принять во внимание влияние, которое они уже оказывают. Для достижения хрупкого баланса между инновациями и защитой интересов пользователей потребуется совместный подход с участием технологических компаний, политиков и пользователей.


Социальные сети действительно способны стать силой добра, объединяя сообщества и способствуя инклюзивности; однако без адекватных рамок и правил, защищающих права пользователей, использование искусственного интеллекта и алгоритмов также может оказаться разрушительным для отдельных лиц и общества в целом.


Рекомендации

[1] Эволюция социальных сетей: как она началась и куда она может пойти дальше? | Мэривилл Онлайн .

[2] Все, что вам нужно знать об алгоритмах социальных сетей

[3] Ленте новостей Facebook исполнилось 10 лет. Вот как изменился сайт | Всемирный Экономический Форум

[4] история - алгоритмы социальных сетей

[5] Посмотрите «Социальную дилемму» | Официальный сайт Netflix

[6] Посмотрите «Великий взлом» | Официальный сайт Netflix

[7] «Пузырь фильтров» объясняет, почему Трамп победил, а вы этого не предвидели

[8] Как возникают эхо-камеры в социальных сетях (и почему все ваши друзья думают, что Трамп проиграет)

[9] Закон об устранении предвзятости в алгоритмических системах от 2023 г.