paint-brush
Должен ли машинный вывод соответствовать требованиям защиты свободы слова?к@pawarashishanil
Новая история

Должен ли машинный вывод соответствовать требованиям защиты свободы слова?

к Ashish Anil Pawar6m2024/11/28
Read on Terminal Reader

Слишком долго; Читать

Поскольку генеративные системы ИИ, такие как GPT-4, производят все более сложный контент, возникает сложный вопрос: должны ли их результаты квалифицироваться как «речь» в рамках защиты свободы слова? Хотя ИИ не хватает намерения, оригинальности и ответственности — ключевых элементов человеческой речи — его реалистичные результаты могут быть влиятельными, спорными и даже вредными. Это поднимает насущные правовые и этические проблемы: кто владеет или несет ответственность за эти результаты — разработчик, пользователь или никто? Должны ли правительства регулировать их как инструменты, или они заслуживают такой же защиты, как и человеческое выражение? В этой статье исследуется механика контента, генерируемого ИИ, углубляются в реальные опасности, такие как разжигание ненависти и дезинформация, и предлагается новая структура для классификации результатов ИИ как «симулированной речи». Имитация речи признает способность ИИ имитировать человеческое выражение, признавая при этом отсутствие у него агентности или намерения, что позволяет нам регулировать генерируемый машиной контент, не нарушая права человека на свободу слова. В конечном счете, дебаты подчеркивают критический разрыв: свобода слова — это право человека — распространяется ли оно на генеративные машины или необходимо провести новую черту?
featured image - Должен ли машинный вывод соответствовать требованиям защиты свободы слова?
Ashish Anil Pawar HackerNoon profile picture
0-item

Вы прокручиваете свою ленту X и видите политический манифест с провокационным взглядом на политику в области климата. Он хорошо обоснован, страстен и собирает тысячи ретвитов. Позже вы узнаете, что он был написан не политиком и даже не человеком. Вместо этого он был сгенерирован некой мощной моделью искусственного интеллекта — языковой моделью, обученной сшивать слова на основе шаблонов, которые она наблюдала на обширных просторах интернета. Изменит ли это ваше отношение к манифесту? Должно ли? И вот решающий момент: является ли эта «речь» такой же, как если бы ее написал человек?


Грань между человеческим выражением и машинным контентом становится все труднее и труднее различить. Генеративные модели ИИ, такие как GPT-4 от OpenAI или Gemini от Google, не просто выплевывают ключевые слова или простые ответы — они создают целые повествования, разрабатывают аргументы и иногда разжигают споры. Они могут писать стихи, составлять петиции или даже генерировать подстрекательский контент. И это поднимает любопытный — и немного неудобный — вопрос: являются ли их результаты действительно «речью»? Если да, пользуется ли эта речь той же правовой защитой, которую мы предоставляем человеческому выражению? Или контент, сгенерированный ИИ, должен полностью попадать в отдельную категорию с отдельными правилами?


Давайте рассмотрим это не только с точки зрения поверхностного уровня "создателя контента", но и действительно погрузимся в запутанную техническую реальность, юридические последствия и философские дилеммы. Потому что, честно говоря, это не так просто, как вы могли бы подумать.

ИИ не говорит, он вычисляет

Сначала давайте приоткроем завесу и рассмотрим, что на самом деле происходит, когда ИИ генерирует «речь». По своей сути, генеративная модель ИИ, такая как GPT-4, не вытаскивает предложения из воздуха и не выдвигает оригинальные идеи. Вместо этого она оперирует статистическими вероятностями — жесткой математикой языка.


Вот как это работает: модели ИИ обучаются на обширных наборах данных, которые включают книги, блоги, сообщения в социальных сетях и, по сути, все остальное, что доступно в Интернете. Во время обучения они анализируют эти тексты, чтобы понять связи между словами. Слова не хранятся в компьютере именно как слова; они превращаются в то, что называется токенами , которые похожи на маленькие строительные блоки. Фраза типа «The quick brown fox» может быть разбита на отдельные токены, такие как `[The]`, `[quick]`, `[brown]`, `[fox]`. Затем ИИ узнает, какой токен, скорее всего, последует за другим. После того, как он поглотит достаточно шаблонов, он может предсказать следующий токен в последовательности.


Подумайте об этом на секунду: ИИ не думает о том, что он хочет сказать; он вычисляет математическую вероятность следующего слова. Например, если вы подскажете ему «Быстрая коричневая лиса прыгает», модель может предсказать, что логическим следующим токеном будет «конец». Это не креативность и не намерение — это просто математика.


Но вот в чем фишка: когда вы связываете достаточное количество этих предсказаний вместе через триллионы параметров (огромные, сложные числовые веса, которые управляют тем, как работает модель), вы получаете что-то невероятно реалистичное. Добавьте такие методы, как архитектуры трансформаторов и передовые механизмы внимания , и внезапно вы видите целое эссе об изменении климата или полностью реализованную поэму о потере и надежде. Эти результаты кажутся шокирующе человечными. Но являются ли они речью?

Философская кроличья нора: что такое «речь»?

Речь, как концепция, имеет большой вес. Речь не просто о том, чтобы что-то сказать — речь о том, чтобы что-то сказать . Речь предполагает намерение, активность и ответственность. Когда я пишу этот блог, я выражаю свои мысли, независимо от того, согласны вы с ними или нет. Если я дезинформирован или оскорбителен, я несу ответственность за последствия того, что я говорю. Мое имя прикреплено к этому посту. Я мыслитель, и это мое выражение.


Но генеративный ИИ не имеет мыслей. Он не знает, что говорит или почему он это говорит. Когда вы вводите запрос типа «Напишите убедительное эссе о том, почему электромобили должны заменить бензиновые автомобили», GPT-4 не взвешивает плюсы и минусы чистой энергии и геополитики. Он использует известные ему языковые шаблоны и выдает вам наиболее статистически вероятное предложение, которое последует за вашим вводом. Тем не менее, происходит нечто волшебное: это похоже на речь.


И вот тут-то все становится липким. Если ИИ создает что-то, что влияет на публичный дискурс — скажем, он создает дезинформацию о климате, которая становится вирусной, — должны ли эти слова быть защищены законами о свободе слова? Мы знаем, что человек не создавал эти идеи, так кто же, если вообще кто-то, несет за них ответственность? Давайте копнем глубже.

Разработчики, пользователи или ИИ: кто на самом деле говорит?

Вот где спор о свободе слова превращается в головоломку ответственности: если результаты генеративного ИИ не являются результатом деятельности человека, кому принадлежат эти слова и кто несет ответственность, если контент дает сбои?


- Разработчики: Такие компании, как OpenAI или Google, часто утверждают, что они просто создают инструменты — нейтральные платформы, которые пользователи формируют и направляют с помощью подсказок. «Мы просто обучили пианино», — говорят они. «Другие решают, какие мелодии играть». Но эта метафора слишком упрощает ситуацию. Результаты ИИ сильно зависят от наборов данных, которые выбрали разработчики, и от того, как они настраивали свои модели. Предвзятый набор данных приводит к предвзятым результатам — если появляется вредоносный текст, могут ли создатели действительно заявлять о своей нейтральности?


- Пользователи: А как насчет человека, вводящего подсказку? Некоторые утверждают, что они должны нести ответственность. Если я скажу ИИ «написать подстрекательскую статью, распространяющую ложную информацию о вакцинах», и он подчинится, у меня явно был умысел. Однако это сложнее, когда пользователи неосознанно подсказывают вредоносные результаты или когда результаты отклоняются от сценария в области, находящиеся вне контроля пользователя.


- Сам ИИ: можно ли считать ИИ говорящим? Некоторые футуристы размышляли о том, что системы ИИ обретут «цифровую личность», но эта идея крайне проблематична. У машин нет намерений, они не могут нести ответственность, а распространение права на свободу слова на машины создает благоприятную среду для правового хаоса.


Правда в том, что никто не хочет брать на себя полную ответственность. Разработчики преуменьшают ответственность, пользователи отмахиваются от нее как от непреднамеренной, а ИИ — это, ну, просто машина. И все же, нисходящее влияние контента, созданного ИИ, может быть колоссальным.

Что происходит, когда результаты работы ИИ причиняют вред?

Давайте рассмотрим несколько реальных ситуаций, чтобы ощутить всю серьезность проблемы.


- Случай 1: Разжигание ненависти

Допустим, генеративная система ИИ производит откровенно расистский или сексистский контент. OpenAI и другие разработчики внедряют меры безопасности, например, обучение с подкреплением на основе обратной связи с человеком (RLHF), чтобы минимизировать вред, но ни одна модель не идеальна. Токсичность все равно может просочиться. Когда это происходит, кто виноват? ИИ не знает, что делает. Это был сбой в наборе данных OpenAI? Был ли пользователь-человек безответственным в своих подсказках? Или мы просто оставим эти результаты без проверки?


- Случай 2: Дезинформация

Теперь представьте, что ИИ генерирует сверхдостоверные фейковые новостные статьи о политическом кандидате и заполняет социальные сети. В отличие от пропаганды, созданной человеком, эта дезинформация может производиться массово и с минимальными усилиями. Можно ли считать такие результаты защищенной политической речью или они представляют собой общественную опасность, которую следует жестко регулировать (или полностью запрещать)?


- Случай 3: Художественное выражение

А как быть, когда ИИ создает искусство или поэзию? Защищено ли это как «выражение» в соответствии с принципами свободы слова? И когда ИИ выигрывает художественные конкурсы или создает творческие работы, кому принадлежат права на эти результаты? Разработчику? Пользователю? Или это общественное достояние?


Ответы неясны, поэтому суды и политики застигнуты врасплох. Это крайние случаи, которые никто не предвидел, когда писались законы о свободе слова.

Пришло ли время для новой категории? «Имитированная речь»

Возможно, было бы полезно классифицировать генеративные результаты ИИ не как защищенную речь, а как «имитированную речь». Это установило бы, что, хотя результаты ИИ отражают человеческое выражение, им не хватает намерения и ответственности, которые действительно определяют то, что мы называем «речью». С помощью этой новой категории мы могли бы регулировать контент, генерируемый ИИ, не подрывая права человека на свободу слова.


Например:

- Для вывода данных, сгенерированных ИИ, может потребоваться маркировка метаданными, указывающая на то, что они сгенерированы машиной (например, «Сгенерировано GPT-4»).

- Вредоносная информация (например, дезинформация, экстремистская пропаганда) может подвергаться особому контролю или даже ограничениям в ситуациях повышенного риска, таких как выборы.

- API, генерирующие масштабный ИИ-контент, могут подвергаться «этическому регулированию» для предотвращения масштабных кампаний по дезинформации.


Такая структура даст нам возможность рассматривать результаты работы ИИ такими, какими они являются на самом деле: мощными инструментами, а не произвольными выражениями.

Заключительные мысли: речь для людей, инструменты для машин

Если я звучу осторожно, то это потому, что в этом споре ставки гораздо выше, чем поверхностные аргументы о том, «что такое речь». Приравнивание результатов генеративного ИИ к человеческой речи рискует принизить цели свободы слова — акта, связанного с намерением, креативностью и ответственностью. Я считаю, что речь по своей сути является человеческим предприятием. Она процветает благодаря ответственности и целенаправленному обмену идеями. Машины не разделяют этот дух, даже если их результаты имитируют наши.


В тот момент, когда мы начинаем защищать машинно-генерируемые слова по тем же законам, которые защищают человеческое выражение, мы разбавляем значение свободы слова. Давайте чествовать ИИ за то, что он есть — феноменальный инструмент, — но давайте также осознаем, где его влияние должно остановиться. В конце концов, свобода слова касается человечества, а не вероятностей в нейронной сети.


Итак, что вы думаете? Мы на скользком пути, или я просто слишком осторожен? Дайте мне знать — только убедитесь, что вы, а не какой-нибудь бот с искусственным интеллектом, тот, кто вмешивается :)