paint-brush
Теория мертвого Интернета: темная сторона автоматизации ИИк@antonvoichenkovokrug
Новая история

Теория мертвого Интернета: темная сторона автоматизации ИИ

Слишком долго; Читать

featured image - Теория мертвого Интернета: темная сторона автоматизации ИИ
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

Интернет, который мы знали, умирает — или, по крайней мере, меняется до неузнаваемости. С ростом искусственного интеллекта цифровое пространство становится местом, где границы между людьми и машинами размываются, а взаимодействия становятся менее аутентичными и менее «человеческими». «Теория мертвого Интернета», хотя ее часто рассматривают как теорию заговора, на удивление точно отражает некоторые из этих изменений. Что, если мы уже живем в сети, где большую часть контента создают не люди, а алгоритмы? И что это значит для будущего?

Контент для контента: ИИ Написание для ИИ

Если вы родились до 2010 года, давайте на минутку вспомним, каким был Интернет всего десять лет назад. Форумы, блоги и ранние социальные сети — все это полагалось на участие человека. Люди писали статьи, делились своими мыслями и спорили в комментариях. Это была яркая экосистема идей. Но с развитием технологий ИИ эта экосистема начала меняться. Сегодня контент больше не создается исключительно людьми. Тексты, новостные статьи и сообщения в социальных сетях — все это теперь могут генерировать машины.

Теперь ИИ может писать статьи, которые почти невозможно отличить от написанных людьми. Вы, вероятно, читали некоторые из этих статей, даже не осознавая этого. Могла ли сама эта статья быть написана службой ИИ? Новостная статья? Пост в социальной сети? Комментарий под видео? Все это может быть работой — или, скорее, «кодом» — алгоритма.


Согласно исследованиям, около 15% аккаунтов Twitter являются ботами, создающими иллюзию реальной активности пользователей. Это особенно актуально в политических дискуссиях, где ИИ используется для продвижения определенных точек зрения . И это только то, что мы можем определить — реальный процент может быть намного выше.


А как насчет других социальных сетей, таких как LinkedIn и Facebook? К сожалению, реальность еще более тревожна. Мы не можем полностью измерить истинный масштаб этой проблемы, потому что изучить ее полностью просто невозможно. Социальные сети — это то место, где «мертвый интернет» проявляется наиболее отчетливо. Вспомните, когда в последний раз вы получали лайк или комментарий к своему посту. Вы уверены, что это был реальный человек? Исследование Эмилио Феррары обнаружили, что около 19% политических постов в Twitter во время выборов в США 2016 года были сделаны ботами. Эти боты могут распространять информацию, отвечать на комментарии и даже участвовать в обсуждениях, создавая иллюзию реального человеческого взаимодействия.


Кроме того, компании используют автоматизацию для управления своими страницами в социальных сетях. ИИ пишет посты, отслеживает вовлеченность и улучшает контент. В то же время обычные пользователи также используют ИИ для автоматизации своих аккаунтов. Это означает, что мы сами помогаем создавать эту ситуацию. В результате социальные сети становятся местом, где алгоритмы имитируют активность, а настоящее человеческое общение исчезает.


Модели ИИ не просто создают посты — они учатся на каждом вашем взаимодействии. Лайк, комментарий или даже просто просмотр предоставляют данные, которые ИИ использует, чтобы понять, что вас интересует. Алгоритмы анализируют, какие темы, заголовки, изображения или фразы получают наибольшее взаимодействие. С каждым циклом обучения они становятся лучше в создании контента, призванного привлечь ваше внимание. Это превращает контент в инструмент, который не просто информирует вас, но и активно манипулирует вашими эмоциями, реакциями и поведением. Он удерживает вас на платформе дольше или влияет на ваши решения, часто без вашего осознания.


Создание контента, генерируемого ИИ, для влияния на политику — одна из самых опасных сторон автоматизации интернета. Эти технологии могут производить фейковые новости, манипулировать общественным мнением с помощью ботов и даже создавать фейковые видео или аудиозаписи политиков, делающих ложные заявления.

Проблема усугубляется тем, что становится практически невозможно отличить поддельный контент от настоящего, особенно для обычных пользователей. Без четких инструментов для обнаружения поддельного контента общество остается уязвимым для манипуляций. Это может ослабить доверие к демократическим процессам и институтам, создавая серьезные проблемы для свободных выборов и политической прозрачности.

Пример из практики: ИИ в рекрутинге – гонка машин

Процесс найма стал еще одним полем битвы для систем ИИ. Современные работодатели все чаще используют алгоритмы для сканирования резюме и сопроводительных писем. Эти системы ищут ключевые слова, анализируют стиль письма и проверяют, соответствует ли опыт требованиям — все это автоматически. Согласно статье Питера Каппелли в Harvard Business Review около 75% резюме даже не попадают на глаза рекрутеру, поскольку их отфильтровывает искусственный интеллект.


Но игра на этом не заканчивается. Соискатели работы, зная, как работают эти алгоритмы, также обращаются к инструментам ИИ для создания «идеальных» документов. Эти инструменты генерируют резюме, предназначенные для прохождения фильтров ИИ и написания идеальных сопроводительных писем.


В результате мы приходим к ситуации, когда один ИИ создает документы, а другой ИИ их фильтрует. Люди остаются вне уравнения — они просто зрители, наблюдающие за битвой алгоритмов.

\Визуальный контент: реальность или иллюзия?

ИИ научился не только писать текст, но и создавать изображения. Такие сервисы, как This Person Does Not Exist может создавать реалистичные изображения людей и предметов, которых не существует . На первый взгляд это может показаться просто еще одним инструментом, но это поднимает серьезные вопросы. Где мы проводим границу между реальным и поддельным, если изображение, созданное ИИ, выглядит в точности как настоящая фотография?


Социальные сети, где визуальные эффекты играют огромную роль, теперь переполнены такого рода «искусственным искусством». Люди публикуют изображения, созданные искусственным интеллектом, чтобы получить реакцию, иногда от аудитории, которая также может состоять из ботов.


Эти примеры показывают, что интернет становится все менее местом для людей. Он превращается в пространство, где ИИ взаимодействует с ИИ. Один алгоритм создает контент, другой его анализирует, третий фильтрует, а четвертый отвечает на комментарии. Участие человека сокращается, и общение превращается просто в серию сигналов, которыми обмениваются машины.


Это может показаться прогрессом, но есть скрытые проблемы. Если машины создают большую часть онлайн-контента, доверие к информации снижается. Мы уже живем в мире, где трудно отличить правду от манипуляции. Автоматизация общения, особенно в социальных сетях, заставляет интернет казаться фальшивым. Люди теряют способность формировать настоящие отношения в сети.


Когда ИИ генерирует комментарии, влияющие на общественное мнение, мы сталкиваемся с глубокой этической дилеммой. Кто несет ответственность за эти действия? Алгоритм просто выполняет свою работу. Разработчик, который создал и обучил ИИ? Компания, которая использует его на своей платформе? Или, может быть, никто, поскольку у ИИ нет свободной воли или морального сознания? Такое отсутствие ясности создает риски для общества. Манипулятивные комментарии, генерируемые ИИ, могут способствовать формированию ложных тенденций, распространять дезинформацию или даже влиять на выборы. Пока законы и этические стандарты не догонят эти технологии, мы рискуем жить в мире, где никто не будет нести ответственности за влияние ИИ, что откроет двери для злоупотреблений.


«Теория мертвого Интернета», хотя она и начиналась как теория заговора, начинает казаться менее абсурдной. Мы видим признаки того, что участие человека в создании и потреблении контента уменьшается, уступая место автоматизации. Платформы социальных сетей заполнены контентом, созданным ИИ, а взаимодействие пользователей часто изменяется или заменяется ботами. Это меняет природу Интернета и поднимает важные вопросы о его будущем.


Чтобы сохранить «человечность» Интернета, нам необходимо действовать на нескольких уровнях:


  1. Технологические компании должны взять на себя больше ответственности за то, как они используют ИИ. Прозрачность алгоритмов, инструменты для обнаружения поддельного контента и поддержка реальных взаимодействий должны быть приоритетами. Например, маркировка контента, созданного ИИ, может помочь пользователям узнать, с кем или с чем они взаимодействуют.

  2. Пользователи должны оставаться вовлеченными и информированными. Это означает повышение цифровой грамотности, критическое мышление об информации и понимание того, как работают алгоритмы. Мы должны научиться отличать правду от лжи, избегать попадания на манипулятивный контент и поддерживать настоящие человеческие связи в сети.

  3. Регулирование и этические принципы необходимы для защиты как пользователей, так и компаний. Речь идет не только о защите данных — речь идет также о контроле использования ИИ в социальных и политических процессах. Регулирование должно гарантировать, что интернет останется человеческим пространством, предотвратит злоупотребления и будет способствовать равному доступу к технологиям.


Но этого недостаточно. Чтобы сохранить интернет «человечным», он должен снова стать местом для творчества, открытого диалога и настоящего общения. Мы должны поддерживать сообщества, основанные на честности и подлинности, где человеческие голоса громче алгоритмов. Платформы, которые ставят в приоритет людей, а не только прибыль от удержания пользователей онлайн, могут подать лучший пример.


Интернет все еще жив. Но его будущее зависит от того, как мы используем созданные нами технологии. Если мы слепо пойдем по пути полной автоматизации, мы рискуем потерять то, что делает интернет по-настоящему ценным: человеческое присутствие. Но если мы тщательно сбалансируем технологии с человеческими ценностями, мы сможем вернуть интернет к его изначальному предназначению — пространству для людей, а не машин.