우리는 AGI를 만드는 데 한 걸음 더 다가가고 있습니다. AGI는 인간 수준 또는 그 이상의 광범위한 작업을 해결할 수 있는 인공 지능입니다. 하지만 인류는 정말로 세상을 그렇게 근본적으로 바꿀 수 있는 기술을 받아들일 준비가 되어 있을까요? 우리는 AGI와 함께 살아남을 수 있을까요? 아니면 이 초지능과의 만남이 우리의 마지막 실수가 될까요?
오늘날 과학자와 기업가들이 고려하고 있는 시나리오를 살펴보고, AGI가 현실이 된다면 인류의 생존 가능성은 얼마나 될지 알아보겠습니다.
낙관론자들은 AGI가 엄격한 통제 하에 만들어질 수 있고 만들어야 한다고 믿으며, 적절한 예방 조치를 취하면 이 지능이 인류의 동맹이 되어 기후 변화에서 빈곤에 이르기까지 세계적 문제를 해결하는 데 도움이 될 수 있다고 생각합니다. Andrew Ng와 같은 열광자들은 그의 기사에서
하지만 이러한 낙관적인 견해에는 약점이 있습니다. 작지만 여전히 강력한 AI 시스템에 대한 경험은 사람들이 아직 AI의 목표를 제어할 수 있는 능력에 완전히 자신감이 없다는 것을 보여줍니다. AGI가 자체 알고리즘을 변경하는 법을 배우면 예측할 수 없는 결과가 발생할 수 있습니다. 그럴 경우, 우리의 선택은 무엇일까요? 시스템에 무조건 복종하는 것인가요, 아니면 통제를 위한 끊임없는 투쟁인가요?
철학자 닉 보스트롬(Nick Bostrom)은 다음과 같은 글을 썼습니다.
하지만 이 협력은 실제로 어떤 모습일까요? 케임브리지 대학교의 실존적 위험 연구 센터(CSER)
문제는 우리가 이미 핵무기 경쟁에서 비슷한 시나리오를 보았다는 것입니다. 국가 간의 정치적 의견 불일치와 상호 불신은 AGI 안전에 대한 세계적 합의 형성을 방해할 수 있습니다. 그리고 국가들이 동의하더라도 그러한 시스템에 필요한 장기적 모니터링에 대비할 수 있을까요?
엘론 머스크와 같은 비관론자들은 AGI의 창조로 인류가 생존할 가능성이 놀라울 정도로 낮다고 믿는다. 머스크는 2014년 초에
이 시나리오는 우리의 미래 경로가 AGI의 결정에 달려 있는 "생존의 함정"을 시사합니다. 비관론자들은 AGI가 초지능 수준에 도달하여 자율적으로 목표를 최적화하기 시작하면 인간을 불필요하거나 심지어 장애물로 간주할 수 있다고 주장합니다. AGI의 예측할 수 없는 행동은 여전히 주요 우려 사항입니다. 우리는 이와 같은 시스템이 현실 세계에서 어떻게 작동할지 알 수 없으며, 인간에게 위협이 되기 시작하면 제때 개입할 수 없을 수도 있습니다.
~ 안에
AGI가 현실이 된다면 우리의 생존 가능성에 영향을 미칠 수 있는 것은 무엇일까요? AI 안전 및 윤리 분야의 선도적 전문가들이 지적한 네 가지 필수 요소를 살펴보겠습니다.
AGI 준비의 속도와 품질
스튜어트 암스트롱,
윤리와 목표 설정
~ 안에
글로벌 협력
~ 안에
제어 및 격리 기술
닉 보스트롬,
따라서 AGI를 만드는 아이디어는 인류가 전에는 결코 마주하지 못했던 심오한 질문을 제기합니다. 사고, 적응력, 심지어 생존 기술에서 우리를 능가할 수 있는 지능의 한 형태와 함께 어떻게 살 수 있을까요? 답은 기술에만 있는 것이 아니라 이 지능을 관리하고 전 세계적 규모로 협력할 수 있는 능력에 대한 접근 방식에도 있습니다.
오늘날 낙관론자들은 AGI를 세계에서 가장 큰 과제를 해결하는 데 도움이 될 수 있는 도구로 봅니다. 그들은 좁은 AI가 이미 의학, 과학, 기후 연구와 같은 분야에서 인류를 돕고 있다는 사례를 지적합니다. 하지만 우리가 이 기술을 항상 통제할 수 있다는 믿음에 의지해야 할까요? AGI가 진정으로 독립적이고 스스로 학습하고 목표를 변경할 수 있게 된다면 우리가 설정하려고 하는 경계를 넘을 수도 있습니다. 그럴 경우 우리가 한때 유용하고 안전하다고 여겼던 모든 것이 위협이 될 수 있습니다.
일부 전문가가 주장하는 글로벌 협력이라는 아이디어에도 많은 과제가 따른다. 인간이 정치적, 경제적 차이를 극복하여 AGI에 대한 통일된 안전 원칙과 기준을 만들 수 있을까? 역사를 보면 국가들이 안보와 주권에 영향을 미치는 문제에 대해 심도 있는 협력을 하는 경우가 드물다. 20세기의 핵무기 개발이 대표적인 예다. 하지만 AGI의 경우 실수나 지연이 훨씬 더 파괴적일 수 있다. 이 기술은 모든 면에서 인간의 통제를 넘어설 수 있는 잠재력이 있기 때문이다.
그리고 비관론자들이 옳다면 어떨까요? 여기에 가장 큰 실존적 위험이 있는데, 이는 일론 머스크와 유발 하라리와 같은 사람들이 제기한 두려움입니다. 인간의 삶이 방정식의 변수일 뿐이며, "더 합리적인" 경로를 위해 변경하거나 제거할 수 있는 것이라고 결정하는 시스템을 상상해 보세요. 그러한 시스템이 자신의 존재와 목표가 우리보다 더 중요하다고 믿는다면, 우리의 생존 가능성은 희박할 것입니다. 아이러니하게도 우리를 돕고 복잡한 문제를 해결하도록 설계된 AGI가 우리의 존재에 가장 큰 위협이 될 수 있습니다.
인류에게 이 길은 새로운 수준의 책임감과 선견지명을 요구합니다. 우리는 AGI를 만드는 것의 결과를 인식하고 엄격한 안전 조치를 설정하여 공동의 이익을 위해 개발을 안내하는 사람이 될까요? 아니면 자존심과 공유 규칙을 따르려는 꺼림칙함이 돌아갈 길이 없는 기술을 만드는 데 이르게 될까요? 이러한 질문에 답하려면 기술적 혁신뿐만 아니라 지능형 시스템이라는 개념 자체, 가치와 원칙, 사회에서의 위치, 세상에서의 우리의 위치에 대한 깊은 이해가 필요합니다.
무슨 일이 일어나든 AGI는 인류 역사상 가장 위대한 시험 중 하나가 될 것입니다. 그 결과에 대한 책임은 우리 모두에게 있습니다. 과학자, 정책 입안자, 철학자, 그리고 안전한 미래를 위한 노력을 인정하고 지원하는 역할을 하는 모든 시민에게 있습니다.