paint-brush
Преодоление сложностей глобального регулирования ИИк@bertomill
621 чтения
621 чтения

Преодоление сложностей глобального регулирования ИИ

к Berto.M.3m2023/11/13
Read on Terminal Reader

Слишком долго; Читать

Глобальный разговор об управлении ИИ усиливается, поскольку США стремятся сбалансировать инновации и безопасность посредством указа Байдена, китайские ученые предупреждают о экзистенциальных рисках, а Великобритания проводит саммит по безопасности ИИ. Урегулирование геополитической напряженности и защита индивидуальных свобод при одновременном обеспечении безопасности и инноваций ИИ представляют собой сложную задачу. Острая необходимость сплоченных глобальных действий очевидна, что подчеркивает жизненно важную необходимость диалога и регулирования для решения далеко идущих последствий искусственного интеллекта.
featured image - Преодоление сложностей глобального регулирования ИИ
Berto.M. HackerNoon profile picture
0-item


В быстро развивающемся мире, где искусственный интеллект (ИИ) все больше формирует нашу жизнь, призывы к ужесточению нормативной базы раздаются по всему миру. Хотя очевидно, что эта технология несет в себе огромный потенциал для экономического роста и социального прогресса, она также несет в себе риски, которые еще предстоит полностью понять¹. В условиях, когда китайские ученые призывают к ужесточению регулирования, президент США Джо Байден издает амбициозный указ , а на горизонте приближается саммит по безопасности ИИ, время для согласования глобальных взглядов на управление ИИ сейчас как никогда важно.


Диаграмма, показывающая частные инвестиции в ИИ



Нахождение баланса: прибыль против безопасности

Недавний указ президента Байдена затрагивает суть американского духа: баланс между инновациями, безопасностью и этикой. Признавая разрушительные возможности ИИ, от стимулирования исследований рака до потенциального углубления социального неравенства, этот указ является важным первым шагом. Он требует от разработчиков ИИ делиться данными о безопасности с правительством и направлен на установление стандартов для публичного выпуска инструментов ИИ². Что заслуживает похвалы, так это ее широта, затрагивающая неприкосновенность частной жизни, гражданские права и права работников. Однако его подход больше склоняется к самоуправлению в технологическом секторе, оставляя место для более строгого будущего законодательства².


Экзистенциальное предупреждение Китая: призыв к глобальному надзору

Напротив, китайские эксперты по искусственному интеллекту открыто заявили, что искусственный интеллект представляет «экзистенциальную угрозу человечеству»². Хотя западные академические круги часто критикуют за рисование апокалиптических сценариев, соглашение между западными и китайскими учеными сигнализирует о растущем глобальном консенсусе относительно рисков, связанных с нерегулируемым ИИ². Их призыв к созданию международного регулирующего органа, обязательной регистрации и значительной части исследовательских бюджетов, выделяемых на безопасность ИИ, нельзя игнорировать легкомысленно, особенно когда речь идет о более широком контексте технологического соперничества Китая и США².


https://spectrum.ieee.org/state-of-ai-2023


[Источник](https://www.goldmansachs.com/intelligence/pages/ai-investment-forecast-to-approach-200-billion-globally-by-2025.html#:\~:text=В течение длительного времени прогнозы роста полностью реализуются)



Глобальный саммит по безопасности ИИ: слияние различных точек зрения

Предстоящий саммит по безопасности ИИ в Великобритании призван собрать вместе международных политических и технологических лидеров, обеспечив основу для того, что может стать основой глобального управления ИИ³. Проект коммюнике премьер-министра Великобритании Риши Сунака демонстрирует осторожный подход, предупреждая о потенциальном вреде от передовых моделей искусственного интеллекта, но не предлагая конкретных правил³. Участники саммита, а это от Канады до Сингапура, сыграют решающую роль в формировании общего видения безопасного и справедливого развертывания ИИ³.


Путь вперед: вызовы и возможности

Объединив эти разрозненные, но важные разговоры, становится ясно, что простых ответов не существует. Универсальный подход к управлению ИИ должен будет преодолевать геополитическую напряженность, защищать индивидуальные свободы и обеспечивать безопасность, не подавляя инновации³. Достичь этого баланса сложно, но коллективные настроения, похоже, движутся в сторону осторожности. Пока неясно, воплотятся ли эти дискуссии в конкретную глобальную политику. Но, учитывая растущие ставки, необходимость принятия сплоченных действий никогда не была такой острой³.


[Источник](https://hai.stanford.edu/news/state-ai-9-charts#:\~:text=Состояние ИИ в Шане Линч)


Последние мысли

В эпоху, когда ИИ становится повсеместным, призывы к регулированию из разных уголков земного шара указывают на более глубокое понимание далеко идущих последствий этой технологии³. Поскольку мы смотрим на будущее, на которое все больше влияет ИИ, эти диалоги вокруг управления не просто необходимы, но жизненно важны для благополучия человечества. Это сложная загадка, но мы не можем позволить себе оставить ее незавершенной³.


Если когда-либо и было время для героев вмешаться и провести нас через этот лабиринт этических, социальных и технологических сложностей, то это сейчас. Стремление к гармоничной интеграции ИИ в нашу глобальную структуру требует не меньшего.


Библиография

¹: «Искусственный интеллект: Байден подписывает масштабный указ, касающийся искусственного интеллекта». Джош Боак, Мэтт О'Брайен. Связь

²: «Китайские ученые призывают к принятию международных правил в отношении ИИ». Связь

³: «Глобальный саммит по безопасности ИИ: проект коммюнике».Связь



Также опубликовано здесь.

Если вам понравилась эта статья, посетите мою страницу в Linkedin , чтобы увидеть больше статей и публикаций об искусственном интеллекте и управлении данными.