Темпы развития искусственного интеллекта достигли естественного крещендо. Такие инструменты, как GPT-4 , Gemini , Claude и т. д., и их создатели заявляют, что вскоре смогут изменить все аспекты жизни общества, от здравоохранения и образования до финансов и развлечений. Эта быстрая эволюция поднимает все более важные вопросы о траектории развития ИИ: да, о преимуществах технологии, но также ( в основном! ) о потенциальных рисках, которые она представляет для всех нас.
В этих обстоятельствах умение слушать, понимать и учитывать точку зрения экспертов становится решающим. Недавний опрос под названием « Тысячи авторов ИИ о будущем ИИ » представляет собой наиболее обширную попытку оценить мнения таких специалистов о потенциале ИИ. Исследование, проведенное Катей Грейс и ее командой из AI Impacts в сотрудничестве с исследователями из Боннского и Оксфордского университетов, опросило 2778 исследователей с целью получить их прогнозы относительно прогресса ИИ и его социальных последствий. Все, с кем связались, ранее писали рецензируемые статьи на ведущих площадках по искусственному интеллекту.
Короче говоря, опрос подчеркивает явную сложность и широту ожиданий и опасений исследователей ИИ относительно будущего технологии… и ее воздействия на общество.
Эксперты прогнозируют, что ИИ достигнет значительных успехов уже в 2028 году: « таких как кодирование всего сайта обработки платежей с нуля и написание новых песен, неотличимых от настоящих, такими популярными исполнителями, как Тейлор Свифт ».
Значительное большинство участников также считают, что лучшие системы искусственного интеллекта, вероятно, достигнут весьма заметных возможностей в течение следующих двух десятилетий. Сюда входит поиск « неожиданных способов достижения целей » (82,3%), разговор « как эксперт по большинству тем » (81,4%) и частое поведение « способами, удивительными для людей » (69,1%).
Более того, консенсус предполагает 50-процентную вероятность того, что ИИ « превзойдет » людей во всех задачах к 2047 году, и этот прогноз сдвинулся на 13 лет вперед по сравнению с прогнозами, сделанными годом ранее .
По прогнозам, вероятность того, что все человеческие занятия станут « полностью автоматизированными », достигнет 10% к 2037 году и 50% к 2116 году (по сравнению с 2164 в опросе 2022 года ).
Опрос указывает на скептицизм по поводу интерпретируемости решений ИИ: только 20% респондентов считают вероятным, что пользователи смогут « понять истинные причины выбора систем ИИ » к 2028 году. ИИ — это (печально известный) черный ящик , и эта озабоченность отражает реальные, текущие проблемы с прозрачностью ИИ. Это особенно актуально в критически важных приложениях (финансы, здравоохранение…), где понимание процесса принятия решений с помощью ИИ имеет решающее значение для доверия и подотчетности.
Исследование также подчеркивает « серьезные » опасения по поводу потенциальных негативных последствий ИИ. Распространение ложной информации, манипулирование общественным мнением и авторитарное использование ИИ вызывают, что неудивительно, серьезную обеспокоенность. Призывов к активным мерам по смягчению этих опасностей сегодня мало, и это проблема .
Существует множество мнений о долгосрочном воздействии машинного интеллекта высокого уровня, причем значительная часть респондентов приписывает ненулевую вероятность как чрезвычайно хорошим, так и крайне плохим результатам, включая вымирание человечества. Это по-ученому означает: « мы, черт возьми, не знаем, что будет дальше ». Но… от 38% до 51% респондентов дали по крайней мере 10%-ную вероятность того, что продвинутый ИИ приведет к столь же плохим последствиям, как вымирание человечества , и, похоже, нам следует следить за этим.
Наконец, существуют разногласия относительно того, будет ли более быстрый или медленный прогресс ИИ лучше для будущего человечества. Тем не менее, большинство респондентов выступают за то, чтобы исследованиям в области безопасности ИИ уделялось больше внимания, чем сейчас, что отражает растущий консенсус относительно важности устранения экзистенциальных рисков ИИ и обеспечения его безопасной разработки и внедрения.
Путь вперед довольно ясен: правительствам во всем мире необходимо увеличить финансирование исследований в области безопасности ИИ и разработать надежные механизмы, обеспечивающие соответствие систем ИИ текущим и будущим человеческим ценностям и интересам.
Правительство Великобритании недавно объявило о выделении более 50 миллионов фунтов стерлингов на финансирование ряда проектов, связанных с искусственным интеллектом , включая 30 миллионов фунтов стерлингов на создание новой ответственной экосистемы искусственного интеллекта. Идея состоит в том, чтобы создать инструменты и программы, которые обеспечат ответственное и надежное применение возможностей ИИ.
Между тем, в начале 2024 года администрация Байдена-Харриса объявила о создании Консорциума Института безопасности ИИ США (AISIC), объединяющего более 200 заинтересованных сторон в области ИИ, включая лидеров отрасли, научные круги и гражданское общество. Целью этого консорциума является поддержка разработки и внедрения безопасного и заслуживающего доверия искусственного интеллекта путем разработки руководств по объединению команд, оценке возможностей, управлению рисками и другим важным мерам безопасности.
Это начало, но слишком национальное.
Сегодня правительства не могут просто смотреть на свой собственный двор. Нам также необходимо внедрить МЕЖДУНАРОДНЫЕ правила, регулирующие этическую разработку и внедрение технологий искусственного интеллекта, обеспечивая прозрачность и подотчетность. Это включает в себя содействие междисциплинарному и МЕЖДУНАРОДНОМУ сотрудничеству между исследователями ИИ, специалистами по этике и политиками. Я почувствую себя в большей безопасности в мире, когда увижу, что для укрепления и улучшения существующих механизмов защиты прав человека внедряются следующие меры:
Возможно, еще рано становиться жертвой думера. Хотя опрос дает ценную информацию, у него есть ограничения, в том числе потенциальные предвзятости из-за самостоятельного выбора участников и ( очевидная! ) Проблема точного прогнозирования технологических достижений. Дальнейшие исследования должны быть направлены на расширение разнообразия точек зрения и изучение последствий развития ИИ в конкретных секторах.
В конце концов, независимо от точности сделанных прогнозов, нам нужно нечто большее, чем слова. ИИ является источником как беспрецедентных возможностей, так и серьезных проблем. Посредством открытого диалога между исследователями, политиками и общественностью мы должны создать правила, которые защитят нас от опасности ИИ и направят нас к лучшему будущему для всех .
Мир очень большой, а мы очень маленькие. Удачи там.