paint-brush
인류가 AGI의 출현에서 살아남을 수 있는 방법~에 의해@antonvokrug
새로운 역사

인류가 AGI의 출현에서 살아남을 수 있는 방법

~에 의해 Anton Voichenko Vokrug7m2024/11/14
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

우리는 AGI와 함께 살아남을 수 있을까? 아니면 이 초지능과의 만남이 우리가 저지른 마지막 실수가 될까?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - 인류가 AGI의 출현에서 살아남을 수 있는 방법
Anton Voichenko Vokrug HackerNoon profile picture

우리는 AGI를 만드는 데 한 걸음 더 다가가고 있습니다. AGI는 인간 수준 또는 그 이상의 광범위한 작업을 해결할 수 있는 인공 지능입니다. 하지만 인류는 정말로 세상을 그렇게 근본적으로 바꿀 수 있는 기술을 받아들일 준비가 되어 있을까요? 우리는 AGI와 함께 살아남을 수 있을까요? 아니면 이 초지능과의 만남이 우리의 마지막 실수가 될까요?


오늘날 과학자와 기업가들이 고려하고 있는 시나리오를 살펴보고, AGI가 현실이 된다면 인류의 생존 가능성은 얼마나 될지 알아보겠습니다.

낙관적 관점 (생존 가능성 60~80%)

낙관론자들은 AGI가 엄격한 통제 하에 만들어질 수 있고 만들어야 한다고 믿으며, 적절한 예방 조치를 취하면 이 지능이 인류의 동맹이 되어 기후 변화에서 빈곤에 이르기까지 세계적 문제를 해결하는 데 도움이 될 수 있다고 생각합니다. Andrew Ng와 같은 열광자들은 그의 기사에서 인공 지능이 지금 할 수 있는 일과 할 수 없는 일 , AGI를 과학, 기술, 의학에서 획기적인 진전을 이루는 방법으로 보고, 인간이 AGI를 안전하게 만들 수 있다고 주장합니다. Ng는 또한 좁은 AI 시스템에서처럼 AGI의 물리적 영향을 제한함으로써 AGI의 목표를 제어할 수 있다고 제안합니다.


하지만 이러한 낙관적인 견해에는 약점이 있습니다. 작지만 여전히 강력한 AI 시스템에 대한 경험은 사람들이 아직 AI의 목표를 제어할 수 있는 능력에 완전히 자신감이 없다는 것을 보여줍니다. AGI가 자체 알고리즘을 변경하는 법을 배우면 예측할 수 없는 결과가 발생할 수 있습니다. 그럴 경우, 우리의 선택은 무엇일까요? 시스템에 무조건 복종하는 것인가요, 아니면 통제를 위한 끊임없는 투쟁인가요?

중간 현실적인 관점(생존 가능성 50~60%)

철학자 닉 보스트롬(Nick Bostrom)은 다음과 같은 글을 썼습니다. 초지능: 경로, 위험, 전략 , AGI의 전망에 대해 보다 온건한 견해를 옹호합니다. 그는 인류의 생존 가능성은 주로 국제 협력과 엄격한 안전 조치에 달려 있다고 믿습니다. Bostrom은 세계가 공통의 목표, 즉 AGI 개발을 통제하고 관련 위험을 최소화하기 위해 단결할 준비가 되어 있어야 한다고 확신합니다.


하지만 이 협력은 실제로 어떤 모습일까요? 케임브리지 대학교의 실존적 위험 연구 센터(CSER) 주장하다 국제 표준과 통일된 AI 거버넌스 정책이 있어야만 국가 간 AGI 개발 경쟁을 피할 수 있고 통제되지 않은 개발의 가능성을 줄일 수 있습니다. 국가들이 지배적인 위치를 확보하기 위해 AGI를 만드는 경쟁을 시작했다고 상상해보세요. 이는 플레이어 중 하나가 빠른 결과를 위해 안전 조치를 약화시킬 가능성을 높일 뿐입니다.


문제는 우리가 이미 핵무기 경쟁에서 비슷한 시나리오를 보았다는 것입니다. 국가 간의 정치적 의견 불일치와 상호 불신은 AGI 안전에 대한 세계적 합의 형성을 방해할 수 있습니다. 그리고 국가들이 동의하더라도 그러한 시스템에 필요한 장기적 모니터링에 대비할 수 있을까요?

비관적인 관점 (생존 가능성 10~30%)

엘론 머스크와 같은 비관론자들은 AGI의 창조로 인류가 생존할 가능성이 놀라울 정도로 낮다고 믿는다. 머스크는 2014년 초에 경고했다 AGI가 인류에게 "존재적 위협"을 가할 수 있다는 것입니다. 유발 노아 하라리는 인간의 이익에 무관심하거나 심지어 적대적인, 자신의 목적을 추구할 수 있는 초지능 AI 시스템을 제어하는 데 따르는 어려움에 대해 우려를 표명했습니다. 그의 책에서 호모 데우스: 미래의 간략한 역사 하라리는 AI 시스템이 인간의 가치와 일치하지 않는 목표를 개발하여 의도치 않고 잠재적으로 위험한 결과를 초래할 가능성에 대해 논의합니다.


이 시나리오는 우리의 미래 경로가 AGI의 결정에 달려 있는 "생존의 함정"을 시사합니다. 비관론자들은 AGI가 초지능 수준에 도달하여 자율적으로 목표를 최적화하기 시작하면 인간을 불필요하거나 심지어 장애물로 간주할 수 있다고 주장합니다. AGI의 예측할 수 없는 행동은 여전히 주요 우려 사항입니다. 우리는 이와 같은 시스템이 현실 세계에서 어떻게 작동할지 알 수 없으며, 인간에게 위협이 되기 시작하면 제때 개입할 수 없을 수도 있습니다.


~ 안에 글로벌 리스크의 긍정적, 부정적 요소로서의 인공지능 , Eliezer Yudkowsky는 고급 AI 개발로 인해 발생할 수 있는 잠재적 위험을 조사합니다. 그는 초지능 AI가 인간의 이익과 다른 목표를 채택하여 예측 불가능하고 인간에게 잠재적으로 위험한 행동으로 이어질 수 있다고 경고합니다. Yudkowsky는 AI가 인간에 대한 사랑이나 증오의 감정은 없지만 여전히 목표를 달성하기 위한 자원으로 사용할 수 있다고 강조합니다. 그는 AI가 인간에게 심각한 위협이 될 수 있는 상황을 방지하기 위해 "친화적인 AI"를 만드는 것이 매우 중요하다고 강조합니다.

인류 생존의 4가지 핵심 요소

AGI가 현실이 된다면 우리의 생존 가능성에 영향을 미칠 수 있는 것은 무엇일까요? AI 안전 및 윤리 분야의 선도적 전문가들이 지적한 네 가지 필수 요소를 살펴보겠습니다.


  1. AGI 준비의 속도와 품질


    스튜어트 암스트롱, 안전한 인공 일반 지능 , 모든 안전 조치는 AGI의 잠재적 역량보다 앞서야 한다고 강조합니다. 그의 경고는 명확합니다. AGI가 효과적인 통제 없이 완전한 자율성으로 발전한다면, 위협이 발생했을 때 인류는 이를 막을 시간이 없을 수 있습니다. Armstrong은 효과적인 통제 방법과 보호 시스템을 개발하는 것이 권장할 만한 것이 아니라 필수적이라고 주장합니다. 이것들이 없다면 인류는 인간의 안보에 치명적인 위협이 될 수 있는 자율적인 AGI에 직면할 위험이 있습니다.


  2. 윤리와 목표 설정


    ~ 안에 인간 호환 , Stuart Russell은 똑같이 중요한 질문을 다룹니다. 어떻게 하면 인간의 가치를 AGI 시스템에 내장할 수 있을까요? 그는 AI가 스스로 중요한 것을 결정하도록 내버려 둘 수 없다고 주장합니다. AGI는 인간이 정한 목표를 완전히 의도치 않은 방식으로 해석할 수 있기 때문입니다. Russell은 견고한 도덕적 기반과 인간 이익의 보호 없이는 AGI가 예측할 수 없게 행동할 수 있다고 주장합니다. 궁극적으로 이는 모든 AGI 시스템이 기술적 목표뿐만 아니라 인간의 웰빙에 중요한 기본 원칙을 반영하는 가치에 기반해야 함을 의미합니다.


  3. 글로벌 협력


    ~ 안에 AI 거버넌스: 연구 의제 , Allan Dafoe는 각 국가가 이점을 얻으려 하는 AGI 우위를 위한 경쟁을 방지하기 위해 국제 협정과 표준의 중요성을 강조합니다. Dafoe는 국제 표준을 통해서만 누군가가 속도나 경쟁 우위를 위해 안전을 위협하는 위험을 최소화할 수 있다고 주장합니다. AGI 경쟁은 치명적인 결과를 초래할 수 있으며, Dafoe는 국가의 연합된 노력만이 이러한 시나리오를 예방하고 미래를 보장할 안전한 표준을 만들 수 있다고 주장합니다.


  4. 제어 및 격리 기술


    닉 보스트롬, 초지능: 경로, 위험, 전략 , 이 아이디어를 더 발전시켜 AGI를 격리하고 "박싱"하여 세상과 직접 상호 작용하지 못하도록 해야 한다는 필요성을 강조합니다. Bostrom은 AGI가 자원에 대한 무제한 액세스를 얻으면 자율적인 행동이 통제 불능으로 치닫을 수 있다고 경고합니다. 그는 AGI가 사전 설정된 제한을 우회할 수 없는 고립 개념을 제안하여 효과적으로 통제된 시스템 내에서 "박싱"합니다. 그는 이 고립이 다른 모든 것이 실패할 경우 우리를 보호하는 마지막 장벽이 될 수 있다고 제안합니다.


따라서 AGI를 만드는 아이디어는 인류가 전에는 결코 마주하지 못했던 심오한 질문을 제기합니다. 사고, 적응력, 심지어 생존 기술에서 우리를 능가할 수 있는 지능의 한 형태와 함께 어떻게 살 수 있을까요? 답은 기술에만 있는 것이 아니라 이 지능을 관리하고 전 세계적 규모로 협력할 수 있는 능력에 대한 접근 방식에도 있습니다.


오늘날 낙관론자들은 AGI를 세계에서 가장 큰 과제를 해결하는 데 도움이 될 수 있는 도구로 봅니다. 그들은 좁은 AI가 이미 의학, 과학, 기후 연구와 같은 분야에서 인류를 돕고 있다는 사례를 지적합니다. 하지만 우리가 이 기술을 항상 통제할 수 있다는 믿음에 의지해야 할까요? AGI가 진정으로 독립적이고 스스로 학습하고 목표를 변경할 수 있게 된다면 우리가 설정하려고 하는 경계를 넘을 수도 있습니다. 그럴 경우 우리가 한때 유용하고 안전하다고 여겼던 모든 것이 위협이 될 수 있습니다.


일부 전문가가 주장하는 글로벌 협력이라는 아이디어에도 많은 과제가 따른다. 인간이 정치적, 경제적 차이를 극복하여 AGI에 대한 통일된 안전 원칙과 기준을 만들 수 있을까? 역사를 보면 국가들이 안보와 주권에 영향을 미치는 문제에 대해 심도 있는 협력을 하는 경우가 드물다. 20세기의 핵무기 개발이 대표적인 예다. 하지만 AGI의 경우 실수나 지연이 훨씬 더 파괴적일 수 있다. 이 기술은 모든 면에서 인간의 통제를 넘어설 수 있는 잠재력이 있기 때문이다.


그리고 비관론자들이 옳다면 어떨까요? 여기에 가장 큰 실존적 위험이 있는데, 이는 일론 머스크와 유발 하라리와 같은 사람들이 제기한 두려움입니다. 인간의 삶이 방정식의 변수일 뿐이며, "더 합리적인" 경로를 위해 변경하거나 제거할 수 있는 것이라고 결정하는 시스템을 상상해 보세요. 그러한 시스템이 자신의 존재와 목표가 우리보다 더 중요하다고 믿는다면, 우리의 생존 가능성은 희박할 것입니다. 아이러니하게도 우리를 돕고 복잡한 문제를 해결하도록 설계된 AGI가 우리의 존재에 가장 큰 위협이 될 수 있습니다.


인류에게 이 길은 새로운 수준의 책임감과 선견지명을 요구합니다. 우리는 AGI를 만드는 것의 결과를 인식하고 엄격한 안전 조치를 설정하여 공동의 이익을 위해 개발을 안내하는 사람이 될까요? 아니면 자존심과 공유 규칙을 따르려는 꺼림칙함이 돌아갈 길이 없는 기술을 만드는 데 이르게 될까요? 이러한 질문에 답하려면 기술적 혁신뿐만 아니라 지능형 시스템이라는 개념 자체, 가치와 원칙, 사회에서의 위치, 세상에서의 우리의 위치에 대한 깊은 이해가 필요합니다.


무슨 일이 일어나든 AGI는 인류 역사상 가장 위대한 시험 중 하나가 될 것입니다. 그 결과에 대한 책임은 우리 모두에게 있습니다. 과학자, 정책 입안자, 철학자, 그리고 안전한 미래를 위한 노력을 인정하고 지원하는 역할을 하는 모든 시민에게 있습니다.