Компания OpenAI в одночасье стала известна, по крайней мере в технических кругах, выпустив ChatGPT в ноябре 2022 года. Компании и частные лица быстро взяли на вооружение ее инструменты и начали использовать их для автоматизации повседневных задач.
Одна из проблем с текстом и изображениями, созданными ИИ, заключается в том, что они могут копировать существующие работы. Некоторые обвиняют программное обеспечение в плагиате, в то время как другие считают, что оно не так подробно, как работа, созданная человеком. Работодатели по всему миру хотят иметь лучшие способы обнаружения использования ИИ, чтобы соответствовать потребностям целевой аудитории и знать лучшее время для использования технологии.
Open AI ответил созданием инструмента обнаружения ИИ, но пока не выпустил его. Многие хотят знать причину задержки и будет ли он когда-либо доступен общественности.
TechCrunch опубликовал статью, в которой объясняется инструмент обнаружения OpenAI, который предназначен для поимки студентов, которые жульничают, заставляя компьютерную программу писать их работы. Компания отложила его, а не выпустила, что вызвало некоторые вопросы о причинах. Представитель OpenAI сказал, что компания рассматривает
Многие другие инструменты обнаружения оказались неэффективными, иногда создавая ложные срабатывания, а иногда не обнаруживая текст, сгенерированный ИИ. Продукт OpenAI будет в основном сосредоточен на обнаружении текста с водяными знаками ChatGPT. Одной из причин, по которой он не был выпущен, является опасение, что он может негативно повлиять на неносителей английского языка. Инструмент также заставляет ChatGPT изменить свой принцип работы при добавлении слов с водяными знаками.
Хотя программное обеспечение для обнаружения предназначено для выявления студентов, использующих ИИ для написания работ, его можно применять и во многих других ситуациях, в частности, для борьбы с мошенничеством на более крупных уровнях.
Например, подумайте, насколько полезным может быть инструмент обнаружения ИИ для обнаружения компьютерно-генерируемого текста, используемого киберпреступниками. Только в 2023 году платежи за вымогательство
Многие мошенничества включают в себя плавную лексику, призванную задеть чьи-то эмоциональные струны или вызвать страх. Если вы не уверены, является ли сообщение подлинным, люди могут пропустить текст через инструмент обнаружения, чтобы увидеть, использовался ли ИИ для его создания. Это может быть весьма ценным, поскольку многие мошенничества включают в себя текст, написанный роботом.
До сих пор инструменты обнаружения ИИ были не очень точными. Они ложно помечали оригинальный контент как созданный ИИ и заставляли студентов бороться за свои оценки, а иногда и за свою академическую карьеру. Университеты и работодатели серьезно относятся к плагиату, поэтому ложное обвинение может разрушить чье-то будущее или средства к существованию.
Инструменты также могут быть неэффективны, когда пользователи не могут
Противники программного обеспечения опасаются, что оно может заставить людей быть менее креативными из-за страха срабатывания детектора. Такие программы, как StealthAI, будут
Люди также выражают обеспокоенность по поводу того, что недобросовестные игроки используют этот инструмент для обратного проектирования кода и создания чего-то, что
Аргументы против инструментов обнаружения ИИ вскоре могут стать спорным вопросом. Хотя люди выразили обеспокоенность тем, что неносители английского языка остаются позади, разработчики программного обеспечения, скорее всего, со временем решат проблемы языкового барьера.
Многие считают, что OpenAI скоро выпустит свой инструмент. Отчеты показывают,
По мере развития детекторов ИИ можно ожидать их использования в таких целях, как:
Выявление поддельных видеороликов, используемых в политических кампаниях
Находит дезинформацию и маркирует ее точнее, чем другие боты
Создание этичного контента
Выпуск инструмента может вдохновить другие бренды на создание собственных программ и повысить уровень успешности обнаружения с помощью ИИ.
Нравится вам это или нет, но ИИ останется, хотя компании приняли его немного медленнее, чем предполагалось изначально. Массачусетский технологический институт опубликовал отчет, показывающий, что технология
По мере того, как отделы маркетинга узнают больше о том, как работает ИИ и как его реализовать, можно ожидать, что все больше брендов будут его использовать и искать инструменты обнаружения для предотвращения проблем с конфиденциальностью и копирования.
Те, кто использует ИИ некоторое время, начинают замечать закономерности, которые можно обнаружить без помощи программного обеспечения. Например, вступление почти к каждой статье имеет схожий язык. Макет, темп и детали одинаковы. С небольшой практикой большинство людей могут довольно точно определить сгенерированную ИИ часть.
Без возможности точно определять контент, сгенерированный ИИ, люди могут не доверять тому, что читают в сети. В других ситуациях они могут подозревать, что кто-то использовал ИИ, не раскрывая этого, но не смогут доказать это. Работники могут быть ложно обвинены или потерять работу и дипломы, когда они невиновны.
Этот инструмент решит проблему, когда студенты мало работают и не преуспевают в учебе, но при этом получают ученую степень, основанную на чьем-то упорном труде, поте и слезах.
Продукт OpenAI, скорее всего, окажет наибольшее влияние на сектор образования. Однако компании также могут использовать его для обеспечения производства уникального, узконаправленного контента, который хотят читать клиенты.
Решение OpenAI не выходить за рамки своего инструмента обнаружения продиктовано желанием делать то, что лучше всего, поскольку технология ИИ развивается и возникают этические проблемы. Вероятно, в какой-то момент компания выпустит программное обеспечение, к облегчению педагогов по всему миру. Как другие отрасли могут его использовать, еще предстоит увидеть. \
Все компании, разрабатывающие программы ИИ, должны взвесить все за и против каждой внедряемой ими функции. Только тогда ИИ станет незаменимым инструментом, стимулирующим прогресс.