paint-brush
Более 2000 исследователей предсказывают будущее искусственного интеллектак@adrien-book
736 чтения
736 чтения

Более 2000 исследователей предсказывают будущее искусственного интеллекта

к Adrien Book4m2024/04/17
Read on Terminal Reader

Слишком долго; Читать

Недавнее исследование AI Impacts, проведенное в сотрудничестве с университетами, освещает прогнозы экспертов относительно будущих вех развития ИИ и потенциальных рисков. Эксперты прогнозируют значительный прогресс в области ИИ к 2028 году, но выражают обеспокоенность по поводу интерпретируемости ИИ, социальных последствий и экзистенциальных рисков. Призывы к расширению исследований в области безопасности ИИ, глобальному регулированию и ответственной разработке ИИ подчеркиваются для определения возможностей и проблем ИИ для лучшего будущего.
featured image - Более 2000 исследователей предсказывают будущее искусственного интеллекта
Adrien Book HackerNoon profile picture
0-item
1-item


Темпы развития искусственного интеллекта достигли естественного крещендо. Такие инструменты, как GPT-4 , Gemini , Claude и т. д., и их создатели заявляют, что вскоре смогут изменить все аспекты жизни общества, от здравоохранения и образования до финансов и развлечений. Эта быстрая эволюция поднимает все более важные вопросы о траектории развития ИИ: да, о преимуществах технологии, но также ( в основном! ) о потенциальных рисках, которые она представляет для всех нас.


В этих обстоятельствах умение слушать, понимать и учитывать точку зрения экспертов становится решающим. Недавний опрос под названием « Тысячи авторов ИИ о будущем ИИ » представляет собой наиболее обширную попытку оценить мнения таких специалистов о потенциале ИИ. Исследование, проведенное Катей Грейс и ее командой из AI Impacts в сотрудничестве с исследователями из Боннского и Оксфордского университетов, опросило 2778 исследователей с целью получить их прогнозы относительно прогресса ИИ и его социальных последствий. Все, с кем связались, ранее писали рецензируемые статьи на ведущих площадках по искусственному интеллекту.


Ключевые выводы из будущего исследований ИИ

Короче говоря, опрос подчеркивает явную сложность и широту ожиданий и опасений исследователей ИИ относительно будущего технологии… и ее воздействия на общество.


  • Эксперты прогнозируют, что ИИ достигнет значительных успехов уже в 2028 году: « таких как кодирование всего сайта обработки платежей с нуля и написание новых песен, неотличимых от настоящих, такими популярными исполнителями, как Тейлор Свифт ».


  • Значительное большинство участников также считают, что лучшие системы искусственного интеллекта, вероятно, достигнут весьма заметных возможностей в течение следующих двух десятилетий. Сюда входит поиск « неожиданных способов достижения целей » (82,3%), разговор « как эксперт по большинству тем » (81,4%) и частое поведение « способами, удивительными для людей » (69,1%).


  • Более того, консенсус предполагает 50-процентную вероятность того, что ИИ « превзойдет » людей во всех задачах к 2047 году, и этот прогноз сдвинулся на 13 лет вперед по сравнению с прогнозами, сделанными годом ранее .


  • По прогнозам, вероятность того, что все человеческие занятия станут « полностью автоматизированными », достигнет 10% к 2037 году и 50% к 2116 году (по сравнению с 2164 в опросе 2022 года ).


Когда ИИ сможет «делать» следующие задачи?


  • Опрос указывает на скептицизм по поводу интерпретируемости решений ИИ: только 20% респондентов считают вероятным, что пользователи смогут « понять истинные причины выбора систем ИИ » к 2028 году. ИИ — это (печально известный) черный ящик , и эта озабоченность отражает реальные, текущие проблемы с прозрачностью ИИ. Это особенно актуально в критически важных приложениях (финансы, здравоохранение…), где понимание процесса принятия решений с помощью ИИ имеет решающее значение для доверия и подотчетности.


  • Исследование также подчеркивает « серьезные » опасения по поводу потенциальных негативных последствий ИИ. Распространение ложной информации, манипулирование общественным мнением и авторитарное использование ИИ вызывают, что неудивительно, серьезную обеспокоенность. Призывов к активным мерам по смягчению этих опасностей сегодня мало, и это проблема .


Степень обеспокоенности, которой заслуживают потенциальные сценарии, от наиболее серьезной до наименее серьезной озабоченности.


  • Существует множество мнений о долгосрочном воздействии машинного интеллекта высокого уровня, причем значительная часть респондентов приписывает ненулевую вероятность как чрезвычайно хорошим, так и крайне плохим результатам, включая вымирание человечества. Это по-ученому означает: « мы, черт возьми, не знаем, что будет дальше ». Но… от 38% до 51% респондентов дали по крайней мере 10%-ную вероятность того, что продвинутый ИИ приведет к столь же плохим последствиям, как вымирание человечества , и, похоже, нам следует следить за этим.


  • Наконец, существуют разногласия относительно того, будет ли более быстрый или медленный прогресс ИИ лучше для будущего человечества. Тем не менее, большинство респондентов выступают за то, чтобы исследованиям в области безопасности ИИ уделялось больше внимания, чем сейчас, что отражает растущий консенсус относительно важности устранения экзистенциальных рисков ИИ и обеспечения его безопасной разработки и внедрения.


Что нам делать с этой информацией?

Путь вперед довольно ясен: правительствам во всем мире необходимо увеличить финансирование исследований в области безопасности ИИ и разработать надежные механизмы, обеспечивающие соответствие систем ИИ текущим и будущим человеческим ценностям и интересам.


Правительство Великобритании недавно объявило о выделении более 50 миллионов фунтов стерлингов на финансирование ряда проектов, связанных с искусственным интеллектом , включая 30 миллионов фунтов стерлингов на создание новой ответственной экосистемы искусственного интеллекта. Идея состоит в том, чтобы создать инструменты и программы, которые обеспечат ответственное и надежное применение возможностей ИИ.


Между тем, в начале 2024 года администрация Байдена-Харриса объявила о создании Консорциума Института безопасности ИИ США (AISIC), объединяющего более 200 заинтересованных сторон в области ИИ, включая лидеров отрасли, научные круги и гражданское общество. Целью этого консорциума является поддержка разработки и внедрения безопасного и заслуживающего доверия искусственного интеллекта путем разработки руководств по объединению команд, оценке возможностей, управлению рисками и другим важным мерам безопасности.


Это начало, но слишком национальное.


Сегодня правительства не могут просто смотреть на свой собственный двор. Нам также необходимо внедрить МЕЖДУНАРОДНЫЕ правила, регулирующие этическую разработку и внедрение технологий искусственного интеллекта, обеспечивая прозрачность и подотчетность. Это включает в себя содействие междисциплинарному и МЕЖДУНАРОДНОМУ сотрудничеству между исследователями ИИ, специалистами по этике и политиками. Я почувствую себя в большей безопасности в мире, когда увижу, что для укрепления и улучшения существующих механизмов защиты прав человека внедряются следующие меры:


  • Глобальные системы безопасности ИИ
  • Международные саммиты по безопасности ИИ
  • Глобальные фонды исследований в области этики и безопасности искусственного интеллекта.


Рано делать выводы

Возможно, еще рано становиться жертвой думера. Хотя опрос дает ценную информацию, у него есть ограничения, в том числе потенциальные предвзятости из-за самостоятельного выбора участников и ( очевидная! ) Проблема точного прогнозирования технологических достижений. Дальнейшие исследования должны быть направлены на расширение разнообразия точек зрения и изучение последствий развития ИИ в конкретных секторах.


В конце концов, независимо от точности сделанных прогнозов, нам нужно нечто большее, чем слова. ИИ является источником как беспрецедентных возможностей, так и серьезных проблем. Посредством открытого диалога между исследователями, политиками и общественностью мы должны создать правила, которые защитят нас от опасности ИИ и направят нас к лучшему будущему для всех .


Мир очень большой, а мы очень маленькие. Удачи там.