paint-brush
У вас есть цифровой двойник? - Мир личностей, созданных искусственным интеллектомк@jwolinsky
556 чтения
556 чтения

У вас есть цифровой двойник? - Мир личностей, созданных искусственным интеллектом

к Jacob Wolinsky10m2024/06/08
Read on Terminal Reader

Слишком долго; Читать

Технология цифровых двойников — это процесс, в котором объект или человек оснащается множеством электрических датчиков, которые контролируют жизненно важные области функциональности. Технология цифровых двойников позволяет пользователям и приложениям, которые мы используем в повседневной жизни, стать более автоматизированными и использовать передовые технологии для изучения и изучения наших процедур для более персонализированного опыта.
featured image - У вас есть цифровой двойник? - Мир личностей, созданных искусственным интеллектом
Jacob Wolinsky HackerNoon profile picture
0-item

Продолжая экспериментировать с безграничными возможностями искусственного интеллекта (ИИ) и технологии цифровых двойников, мы больше не ограничиваем себя, и технология помогает нам преодолеть разрыв в сфере научной фантастики.


Достижения в области приложений искусственного интеллекта означают, что технология цифровых двойников теперь может точно копировать процессы любой системы или человека, создавая скорректированную цифровую среду, более богатую, сложную и почти идентичную исходной.

Хотя технология цифровых двойников, наряду с искусственным интеллектом, означает, что больше людей и предприятий теперь могут автоматизировать повседневные задачи, помогая минимизировать количество времени, которое сотрудники и отдельные лица тратят на ненужную деятельность, в теории и на практике приложения цифровых двойников начинают вызывать проблемы конфиденциальности, возможность кражи личных данных и использование дипфейков для распространения дезинформации.


Поддельные изображения и видео, созданные искусственным интеллектом и являющиеся почти точными копиями реальных людей, — не единственное, что распространяется и переворачивает Интернет. Истории о мошенниках, получающих цифровое аудио и клонирующих голоса людей всего лишь из трех секунд аудиозаписи, теперь вызывают большую обеспокоенность у властей.


Некоторые отраслевые данные показывают, что примерно 77 процентов американских интернет-пользователей сообщили, что их обманули двойники и онлайн-контент, созданные с помощью искусственного интеллекта .


Однако теперь разработчики вместе с пользователями находятся на перепутье понимания того, как законодатели могут начать бросать вызов цифровым структурам и дополнительно менять процессы для защиты цифровой идентичности и конфиденциальности людей в Интернете вещей.

Вы видели моего цифрового двойника?

За последние годы мы стали свидетелями того, как цифровые технологии создали множество замечательных результатов, и наряду с искусственным интеллектом мы сейчас находимся в авангарде следующего поколения возможностей компьютеров и машинного обучения, которые подтолкнут нас к следующему рубежу.

Поскольку возможности становятся безграничными, новые методы цифровизации помогают нам разработать своего рода рамочную систему, которая сможет занять наше место в цифровой экосистеме, пока у нас еще есть свобода жить более беззаботной жизнью здесь, на Земле.


Развитие технологии цифровых двойников позволяет пользователям и приложениям, которые мы используем в повседневной жизни, стать более автоматизированными и использовать передовые технологии для изучения и изучения наших процедур для более персонализированного опыта.

По мнению исследователей из IBM , технология цифровых двойников — это процесс, в котором объект или человек оснащается множеством электрических датчиков, которые контролируют жизненно важные области функциональности.


Запуская множество тестов и постоянно отслеживая различные механизмы ввода и вывода, компьютеризированное программное обеспечение может начать генерировать данные о различных аспектах деятельности объекта или человека. Конечная цель — использовать доступные данные и применить их к цифровой копии для воссоздания различных сценариев или проведения различных типов тестов.

Имея эти данные, технологические компании могут начать изучать, как объекты ведут себя в определенных условиях и как модификации систем могут улучшить производительность объекта.


Представьте себе, что вы можете передать все свои повседневные или рутинные задачи своей цифровой копии, помогая высвободить больше времени и удалив ненужные действия из своего ежедневного расписания.

Из того, что мы узнали из истории, можно применять технологии таким образом, чтобы мы могли в некоторой степени воспроизводить себя в виртуальном мире и становиться более эффективными в нашей реальной жизни, не жертвуя большим количеством своего времени и ресурсов. возможности.

Технологическим компаниям, являющимся пионерами такого уровня технологий, модели цифровых двойников могут помочь им проводить испытания и исследования в рамках различных симуляций, а также вносить улучшения, которые помогут улучшить исходный прототип.


Эта технология невероятно полезна для лучшего понимания того, как определенные объекты функционируют при различных условиях и ошибках, и, используя соответствующие данные, как можно внести необходимые улучшения в исходный объект, но при этом гарантировать, что будущие версии будут более эффективными и смогут пройти более тщательное тестирование или сценарии?

Трещины в цифровой модели обманов, созданных искусственным интеллектом

Теоретически технология цифровых двойников и приложения на базе искусственного интеллекта призваны сделать нашу жизнь более эффективной и помочь нам быть более продуктивными. Эта технология предназначена не только для улучшения человеческого существа, но и на научном уровне.

Следующее поколение технологий на основе искусственного интеллекта позволит нам улучшить наши нынешние системы, позволит нам принимать более качественные и точные решения и полностью изменить то, как мы живем и работаем.


Но что происходит, когда эта технология не применяется на практике по прямому назначению? А еще лучше: как нам расшифровать, что реально, а что фальшиво, когда мошенники дергают за цифровые ниточки, которые сейчас быстро формируют нашу реальность?

По мере того, как технологии, основанные на искусственном интеллекте, становятся более совершенными, их результаты становятся более сложными. Сейчас Интернет наводнен контентом, созданным искусственным интеллектом: от изображений, видео и музыки до статей и аудиозаписей известных знаменитостей и влиятельных лиц в социальных сетях.


В январе этого года сфабрикованные изображения Тейлор Свифт захватили Интернет, казалось бы, в цифровой удушающей хватке после того, как появились изображения Свифт, демонстрирующие откровенный и в некоторой степени порнографический контент. Согласно отчету New York Times , изображения быстро распространились в Интернете, их просмотрели более 47 миллионов раз, прежде чем аккаунт был заблокирован.


Это не первый случай, когда приложения на базе искусственного интеллекта используются для создания откровенного контента. По данным Министерства внутренней безопасности США , в октябре 2020 года исследователи сообщили об обнаружении более 100 000 сфабрикованных в цифровом формате изображений обнаженных женщин, которые были созданы без их согласия, и при этом они не знали о том, что их физические особенности использовались.


В других странах эксперты обнаружили, что от 90 до 95 процентов дипфейковых видеороликов, которыми поделились и опубликовали в Интернете с 2018 года, были созданы и основаны на порнографии без согласия.

В июле 2023 года напуганная и растерянная мать чуть не заплатила мошенникам выкуп на сумму более 50 000 долларов после того, как с ней связались и заставили поверить, что ее дочь находится в плену.


К счастью, матери удалось быстро соединить все воедино и понять, что все это было обманом и что с ней связалась группа мошенников, использующих приложения искусственного интеллекта для имитации голоса ее дочери с целью выманить тысячи долларов у ничего не подозревающих жертв.

Согласно недавнему опросу McAfee , от голосового мошенничества сейчас страдает каждый четвертый взрослый человек. Но вам может быть интересно, как мошенники могут копировать не только изображения, но и голос человека.


Используя технологию генеративно-состязательной сети (GAN), любой человек во всем мире теперь может генерировать контент на основе ряда подсказок и соответствующих данных. Технология GAN была разработана еще в 2014 году как класс инструментов машинного обучения, создающих и оценивающих правдоподобие изображений.

Фреймворки GAN — это просто еще одна ветвь технологии на основе искусственного интеллекта, и в сочетании с возможностями приложений цифровых двойников эта технология имеет практически безграничный потенциал. Контент, созданный искусственным интеллектом, становится все более распространенной функцией в социальных сетях и Интернете с каждым днем, и теперь эксперты прогнозируют, что к 2026 году до 90 процентов контента будет создано искусственным интеллектом.

Хотя наблюдать за результатами этой технологии забавно, темная сторона этой технологии сейчас начинает проявляться под поверхностью, поскольку пользователи начинают задаваться вопросом, как их данные используются для обучения новому языку и моделям обучения.


С учетом количества нового контента, создаваемого с использованием технологии искусственного интеллекта, расшифровка настоящего от подделки стала сложной задачей, которая требует не только более умных искусственных машин, но и информирования пользователей о потенциальных опасностях, которые эта технология представляет в ближайшем будущем.

Очевидно, эксперты предполагают, что мы сейчас вступаем в эпоху «взлома личных данных», когда злоумышленники не только крадут и используют наши имена и другую личную информацию, но вместо этого заявляют о нашей личности и используют технологии для воссоздания наших физических особенностей, голоса и телосложения. виртуальная версия нас самих, которая не только является точной копией, но и неотличима от реальной.


Все это происходит прямо на наших глазах, но делается без нашего согласия и разрешения. А благодаря миллиардам данных, доступных в Интернете, злоумышленники опираются на сокровищницу информации, которую они могут использовать, чтобы искажать и искажать нашу реальность, при этом мы даже не осознаем, что происходит.

Наш мир, созданный цифровыми технологиями

В эпоху дезинформации, когда социальные сети переполнены фальшивой и нефактической информацией, мошенники теперь могут извлечь выгоду из использования технологий на базе искусственного интеллекта, чтобы маскироваться под общественных деятелей, при этом мы даже не подозреваем ничего другого.

Поскольку все больше нашей информации извлекается из Интернета и используется для обучения приложений машинного обучения более сложным шаблонам, эти приложения будут иметь безграничные возможности более эффективно анализировать и учиться, но, что еще более важно, умело имитировать информацию таким образом, что искажает наши знания. понимание реальности.


Дипфейк и контент, созданный ИИ, не только вызывают путаницу между нами, но и оказывают долгосрочное социологическое и психологическое воздействие на людей, которые подверглись негативному воздействию или ранее имели негативный опыт общения с двойниками, созданными ИИ.

В одном исследовании исследователи отметили, что фобия доппельгангера является результатом оскорбительных клонов ИИ, которые эксплуатируют и вытесняют личность людей и вызывают негативную эмоциональную реакцию.


Кроме того, исследователи из того же исследования подчеркивают, что цифровые двойники, созданные ИИ, создадут дискурс о том, как люди взаимодействуют с технологиями, и в дальнейшем повлияют на человеческую идентичность и их межличностные отношения.

Наличие цифрового клона может показаться абсолютной реальностью; однако эти искусственные копии могут угрожать целостному самовосприятию людей и их индивидуальности.


Однако когда эта технология используется для помощи в приеме лекарств, мониторинга потребностей пациентов и беспроводной передачи данных, цифровой двойник может показаться лучшим сценарием.

Знание того, что эта технология не так уж и плоха, и раскрытие долгосрочных возможностей, которые могут обеспечить следующее поколение телемедицины, будет означать, что пациенты будут лечиться более эффективно и каждый раз будет проводиться правильная диагностика.

Хотя возможности практически безграничны, партнерство между государственными и частными организациями должно обеспечивать защиту или сохранение информации о пациентах и обеспечивать справедливый и равный обмен опытом.


Хотя эта технология может существовать, правовая и юрисдикционная база для защиты людей от незаконного и незаконного сбора данных с помощью методов искусственного интеллекта все еще находится в процессе разработки.

Такое междисциплинарное сотрудничество важно не только на переднем крае практики здравоохранения . Вместо этого эти усилия должны способствовать разработке всеобъемлющей дорожной карты, которая обеспечит лучшее понимание того, как технология искусственного интеллекта может разрабатываться и применяться в пространстве, при котором правовые последствия принимаются во внимание и обеспечивают более надежные гарантии для пользователей.

Решение будущих проблем близнецов, созданных искусственным интеллектом

Поскольку контент, созданный искусственным интеллектом, становится все более распространенным в Интернете и социальных сетях, пользователи и центральные органы власти начинают задаваться вопросом, как мы можем управлять искусственно созданными приложениями и обеспечивать сохранение аутентичности.

Юридические вопросы и вопросы конфиденциальности

Использование технологии дипфейков для клонирования или имитации отдельных лиц, как частных, так и публичных, будет нарушать личную конфиденциальность. Более того, использование приложений на базе искусственного интеллекта для воссоздания имени, изображения или образа человека без его предварительного разрешения или ведома может нарушить его право на гласность и потенциально вызвать ряд серьезных нарушений.

Конфиденциальность данных

Компании продолжают отслеживать и делиться ценной информацией о клиентах. Технологическим компаниям, использующим приложения на базе искусственного интеллекта, эти данные позволяют обучать новое программное обеспечение и создавать цифровые модели, отражающие как реальных людей, так и сценарии реального мира. Данные, которыми обмениваются компании, не только чрезвычайно ценны, но и регулировать эту деятельность становится все сложнее из-за уровня сложности новых приложений и объема данных, которые совместно используются и хранятся различными компаниями.

Наблюдение за пользователями

Компании отслеживают своих пользователей по множеству точек данных, чтобы получить доступ к данным, необходимым для использования приложений машинного обучения. Мониторинг этих торговых точек позволяет компаниям лучше понимать своих клиентов и их основные модели использования, предоставлять более персонализированный опыт и заранее вносить улучшения.


Однако эти каналы могут служить способом более тщательного мониторинга пользователей, часто стирая границы нарушения конфиденциальности. Эта деятельность способствует принятию дополнительных положений, необходимых для обеспечения защиты пользовательских данных и общедоступной информации.

Доступность ресурсов и обучения

В последние месяцы Белый дом вместе с администрацией Байдена объявил о своем подходе к регулированию искусственного интеллекта путем введения указа. В соответствии с указом федеральное правительство стремится предоставить всем федеральным агентствам и сотрудникам надлежащую подготовку и образование, необходимое для лучшего понимания того, как инструменты ИИ можно использовать более целесообразно.

Эти действия, хотя все еще находятся в процессе реализации, требуют гораздо более широкого подхода, который позволил бы правительству инвестировать в надлежащие ресурсы, которые помогли бы обычным людям учиться и становиться более осведомленными о контенте, создаваемом ИИ, а также уделять приоритетное внимание цифровой безопасности для всех людей.

Требования прозрачности

Предоставление пользователям возможности узнать, когда о них собирается новая информация или какой тип данных используется, остается тем, с чем многие регулирующие органы до сих пор не до конца знакомы. В июне 2023 года Европейская комиссия утвердила Закон об искусственном интеллекте , первый в отрасли, который призван предоставить пользователям большую прозрачность в отношении того, какой объем информации о них собирается и как эта информация будет использоваться.

Подобные события позволяют законодателям иметь четкое представление о том, как использовать правоприменительные меры для улучшения конфиденциальности и безопасности пользователей. Он проливает свет в темные уголки технологической индустрии и гарантирует, что каждая компания соблюдает тот же уровень прозрачности, который ставит конфиденциальность и безопасность пользователей на первый план.

Завершающие мысли

Хотя неясно, есть ли у каждого из нас цифровой двойник где-то на просторах Интернета, защита нашей цифровой идентичности становится проблемой, которая ставит перед законодателями и регулирующими органами сложные вопросы и оставляет большую часть из них без ответа.

Мысль о том, что однажды у нас появится цифровой двойник, означает, что при этом нам придется отчасти отказаться от своей идентичности. У многих людей это вызывает некоторые этические проблемы, в то время как другие могут почувствовать, что цифровой двойник может предоставить им множество новых возможностей.

Найти баланс непросто, и до тех пор, пока у нас не будет четкого понимания того, как мы можем защитить себя, ввести надлежащее регулирование и внедрить более прозрачную практику, мы сталкиваемся с тем, что находимся в состоянии перетягивания и притягивания, никогда не зная, когда мы станем жертвой искусственно созданного мошенничества, совершенного нашей собственной личностью.