paint-brush
Как человечество может пережить появление AGIк@antonvoichenkovokrug
763 чтения
763 чтения

Как человечество может пережить появление AGI

Слишком долго; Читать

Сможем ли мы выжить рядом с ОИИ или встреча с этим сверхразумом станет нашей последней ошибкой?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Как человечество может пережить появление AGI
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture

Мы приближаемся к созданию AGI — искусственного интеллекта, способного решать широкий спектр задач на уровне человека и даже выше. Но действительно ли человечество готово к технологии, которая может так кардинально изменить мир? Сможем ли мы выжить рядом с AGI, или встреча с этим сверхинтеллектом станет нашей последней ошибкой?


Давайте рассмотрим сценарии, которые сегодня рассматривают ученые и предприниматели, и попытаемся понять: каковы шансы человечества на выживание, если ИИ станет реальностью?

Оптимистичная перспектива (вероятность выживания 60–80%)

Оптимисты считают, что AGI может и должен быть создан под строгим контролем, и при правильных мерах предосторожности этот интеллект может стать союзником человечества, помогая решать глобальные проблемы — от изменения климата до нищеты. Энтузиасты, такие как Эндрю Нг, в своей статье Что искусственный интеллект может и не может делать прямо сейчас , рассматривают AGI как способ совершить прорыв в науке, технологии и медицине и утверждают, что человечество может сделать его безопасным. Нг также предполагает, что мы могли бы контролировать цели AGI, ограничивая его физическое воздействие, как мы делаем с узкими системами ИИ.


Однако эти оптимистичные взгляды имеют слабые стороны. Опыт работы с меньшими, но все еще мощными системами ИИ показывает, что люди еще не полностью уверены в своей способности контролировать цели ИИ. Если ИИ научится менять собственные алгоритмы, это может привести к результатам, которые невозможно предсказать. В таком случае, каким будет наш выбор — безоговорочное подчинение системам или постоянная борьба за контроль?

Умеренно реалистичная перспектива (50–60% шансов на выживание)

Философ Ник Бостром, автор Сверхразум: пути, опасности, стратегии , выступает за более умеренный взгляд на перспективы AGI. Он считает, что шансы человечества на выживание во многом зависят от международного сотрудничества и строгих мер безопасности. Бостром убежден, что мир должен быть готов объединиться вокруг общей цели: контролировать развитие AGI и минимизировать сопутствующие риски.


Но как это сотрудничество может выглядеть на практике? Центр изучения экзистенциального риска (CSER) Кембриджского университета утверждает что только с международными стандартами и единой политикой управления ИИ мы можем избежать гонки за разработку AGI среди стран и снизить вероятность неконтролируемого развития. Представьте, если бы страны начали конкурировать за создание AGI, чтобы обеспечить себе доминирующее положение. Это только увеличило бы вероятность того, что один из игроков может ослабить меры безопасности ради быстрого результата.


Проблема в том, что мы уже видели подобный сценарий во время гонки ядерных вооружений. Политические разногласия и взаимное недоверие между странами могут помешать формированию глобального консенсуса по безопасности AGI. И даже если страны согласятся, будут ли они готовы к долгосрочному мониторингу, который потребуют такие системы?

Пессимистическая перспектива (вероятность выживания 10–30%)

Пессимисты, такие как Илон Маск, считают, что шансы человечества на выживание с созданием AGI остаются тревожно низкими. Еще в 2014 году Маск предупредил что ИИ может представлять «экзистенциальную угрозу» человечеству. Юваль Ной Харари выразил обеспокоенность по поводу проблем управления сверхразумными системами ИИ, которые могут преследовать свои собственные цели, потенциально безразличные или даже враждебные интересам человека. В своей книге Homo Deus: Краткая история завтрашнего дня Харари обсуждает возможность разработки системами ИИ целей, не соответствующих человеческим ценностям, что приводит к непреднамеренным и потенциально опасным результатам.


Этот сценарий предполагает «ловушку выживания», где наш будущий путь зависит от решений AGI. Пессимисты утверждают, что если AGI достигнет сверхразумного уровня и начнет автономно оптимизировать свои цели, он может посчитать человечество ненужным или даже препятствием. Непредсказуемое поведение AGI остается серьезной проблемой: мы просто не знаем, как такая система будет действовать в реальном мире, и мы можем не успеть вмешаться вовремя, если она начнет представлять угрозу для человечества.


В Искусственный интеллект как позитивный и негативный фактор глобального риска Элиезер Юдковски рассматривает потенциальные опасности, которые несет с собой развитие передового ИИ. Он предупреждает, что сверхразумный ИИ может принять цели, которые расходятся с интересами человека, что приведет к поведению, которое является как непредсказуемым, так и потенциально опасным для человечества. Юдковски подчеркивает, что хотя ИИ не испытывает чувств любви или ненависти к людям, он все равно может использовать их в качестве ресурсов для достижения своих целей. Он подчеркивает критическую важность создания «дружественного ИИ» для предотвращения ситуаций, в которых ИИ может представлять серьезную угрозу человечеству.

Четыре ключевых фактора выживания человечества

Что может повлиять на наши шансы на выживание, если AGI станет реальностью? Давайте рассмотрим четыре основных фактора, определенных ведущими экспертами в области безопасности и этики ИИ.


  1. Скорость и качество подготовки к AGI


    Стюарт Армстронг, в Безопасный искусственный интеллект общего назначения , подчеркивает, что любые меры безопасности должны опережать потенциальные возможности AGI. Его предупреждение ясно: если AGI дойдет до полной автономии без эффективного контроля, человечество может не успеть остановить его в случае возникновения угрозы. Армстронг утверждает, что разработка эффективных методов контроля и систем защиты не просто целесообразна, а необходима. Без этого человечество рискует столкнуться с автономным AGI, который может представлять смертельную угрозу безопасности человека.


  2. Этика и постановка целей


    В Совместимость с человеком , Стюарт Рассел рассматривает не менее важный вопрос: как мы можем внедрить человеческие ценности в систему AGI? Он настаивает на том, что мы не можем позволить ИИ самостоятельно решать, что важно, поскольку AGI может интерпретировать поставленные человеком цели совершенно непреднамеренным образом. Рассел утверждает, что без прочной моральной основы и защиты человеческих интересов AGI может действовать непредсказуемо. В конечном счете, это означает, что любая система AGI должна основываться на ценностях, которые отражают не только технические цели, но и фундаментальные принципы, имеющие решающее значение для благополучия человека.


  3. Глобальное сотрудничество


    В Управление ИИ: исследовательская программа , Аллан Дефо подчеркивает важность международных соглашений и стандартов для предотвращения гонки за доминирование AGI, где каждая страна будет стремиться получить преимущество. Дефо утверждает, что только посредством международных стандартов мы можем минимизировать риск того, что кто-то поставит безопасность под угрозу скорости или конкурентного преимущества. Гонка за AGI может иметь катастрофические последствия, и Дефо утверждает, что только объединенные усилия стран могут предотвратить этот сценарий, создав безопасные стандарты, которые обеспечат наше будущее.


  4. Технологии управления и изоляции


    Ник Бостром, в Сверхразум: пути, опасности, стратегии , развивает эту идею дальше, подчеркивая необходимость сдерживания и «упаковки» AGI, чтобы предотвратить его прямое взаимодействие с миром. Бостром предупреждает, что если AGI получит неограниченный доступ к ресурсам, его автономные действия могут выйти из-под контроля. Он предлагает концепции изоляции, в которых AGI не может обойти заранее установленные ограничения, фактически «упаковывая» его в контролируемую систему. Эта изоляция, как он предполагает, может послужить последним барьером для нашей защиты, если все остальное не сработает.


Итак, идея создания AGI поднимает глубокие вопросы, с которыми человечество никогда раньше не сталкивалось: как мы можем жить рядом с формой интеллекта, которая может превзойти нас в мышлении, адаптивности и даже навыках выживания? Ответ кроется не только в технологиях, но и в том, как мы подходим к управлению этим интеллектом и нашей способности к сотрудничеству в глобальном масштабе.


Сегодня оптимисты видят в AGI инструмент, который может помочь решить самые большие проблемы мира. Они указывают на примеры узконаправленного ИИ, который уже помогает человечеству в таких областях, как медицина, наука и климатические исследования. Но стоит ли нам полагаться на веру в то, что мы всегда будем держать эту технологию под контролем? Если AGI станет по-настоящему независимым, способным обучаться самостоятельно и менять свои цели, он может выйти за рамки, которые мы пытаемся установить. В этом случае все, что мы когда-то считали полезным и безопасным, может стать угрозой.


Идея глобального сотрудничества, которую отстаивают некоторые эксперты, также сопряжена со многими трудностями. Может ли человечество преодолеть политические и экономические разногласия, чтобы создать единые принципы и стандарты безопасности для AGI? История показывает, что страны редко берут на себя обязательство глубокого сотрудничества по вопросам, которые влияют на их безопасность и суверенитет. Разработка ядерного оружия в 20 веке является ярким примером. Но с AGI ошибки или задержки могут быть еще более разрушительными, поскольку эта технология может превзойти человеческий контроль во всех отношениях.


А что, если пессимисты правы? Вот где кроется самый большой экзистенциальный риск, страх, поднятый такими людьми, как Илон Маск и Юваль Ной Харари. Представьте себе систему, которая решает, что человеческая жизнь — это всего лишь переменная в уравнении, что-то, что она может изменить или даже устранить ради «более рационального» пути. Если такая система считает, что ее существование и цели важнее наших, наши шансы на выживание будут невелики. Ирония в том, что ИИ, призванный помогать нам и решать сложные проблемы, может стать величайшей угрозой нашему существованию.


Для человечества этот путь требует нового уровня ответственности и дальновидности. Станем ли мы теми, кто осознает последствия создания AGI и установит строгие меры безопасности, направляя его развитие на общее благо? Или гордыня и нежелание следовать общим правилам приведут нас к созданию технологии, у которой нет пути назад? Чтобы ответить на эти вопросы, нам нужны не только технические прорывы, но и глубокое понимание самой идеи интеллектуальной системы, ее ценностей и принципов, ее места в нашем обществе и нашего места в ее мире.


Что бы ни случилось, AGI вполне может стать одним из величайших испытаний в истории человечества. Ответственность за его результат лежит на всех нас: ученых, политиках, философах и каждом гражданине, который играет роль в признании и поддержке усилий ради безопасного будущего.