“무섭다”는 요즘 기술 전문가와 정부가 인공 지능(AI)의 미래와 그것이 인류에 미치는 잠재적 영향을 논의할 때 자주 사용하는 단어입니다.
그들은 AI가 일자리를 빼앗고 불평등을 심화시키며 잘못된 알고리즘으로 학생들을 부당하게 평가하는 미래의 그림을 그립니다.
몇 달 전 백악관 과학기술자문기관이 AI 권리장전을 공개했을 때 이 소식에 대해 “빌어먹을 시간쯤”이라는 AI 정책 및 윤리 전문가들의 반응이 나왔다.
이 문서는 미국 정부, 기술 기업, 시민이 앞으로 AI와 AI 부문에 책임을 묻기 위해 어떻게 협력해야 하는지에 대한 바이든 대통령의 비전입니다.
AI가 초래할 수 있는 잠재적 피해를 고려하고 계획해야 하지만, 논의가 여기서 끝나서는 안 된다고 주장하는 사람들도 있습니다.
AI가 의식적, 심지어 자율적이 될 수 있을 정도로 발전함에 따라 적어도 AI에 대한 인권 확장을 고려해야 하는 도덕적 요구 사항은 어느 시점에 있습니까?
어쩌면 그것은 어리석은 생각일 수도 있다. 사실 이와 같은 질문은 철학의 영역에 속하지만, 미래에는 공공정책에 관한 질문이 될 수도 있습니다.
최근에 나는 불치병인 딸 조시를 위해 고도로 지능적인 "인공 친구"(AF)를 구입하는 어머니에 관한 미래 소설인 이시구로 가즈오의 클라라와 태양을 읽었습니다.
이 책은 AI가 인간에게 실존적으로 부정적인 영향을 미쳤다는 사실을 배우는 수년 후의 이야기를 다루고 있습니다. 새로운 세계에서는 아이들이 AI와 경쟁하기 위해 태어날 때부터 유전적으로 변형되어 그들 중 일부가 심각하고 설명할 수 없는 질병에 걸리게 됩니다.
AF인 클라라는 감정을 배우고 느낄 수 있는 능력을 가진 의식적이고 사고하는 존재인 것처럼 보입니다. 제 생각에는 이 책의 핵심 주제 중 하나는 AI가 프로그래밍 없이 스스로 사랑하는 법을 배울 수 있는지에 대한 질문입니다.
본문 전반에 걸쳐 독자는 Josie의 건강과 복지에 대한 깊은 관심 때문에 Klara에 대한 애착을 갖게 됩니다. 결국 Klara가 Josie를 사랑하는지 아니면 단순히 그녀의 프로그래밍 목표를 수행하고 있는지를 결정하는 것은 각 독자의 몫입니다. 분별하기가 어렵습니다.
Josie는 기적적으로 회복하고 계속해서 자신의 삶을 살아갑니다. 그러나 클라라는 버려지고 다른 버려진 AF들과 함께 폐차장에서 운명을 기다리고 있다. 소설의 마지막에는 클라라가 태양을 바라보며 조시와 함께했던 시간, 그리고 그녀와 함께 만든 행복한 추억을 회상하는 모습이 등장합니다.
AF가 Josie를 향한 명백한 사랑 때문에 이미지는 잊혀지지 않습니다. Klara는 10대 소녀와 깊은 관심과 관계를 발전시켰고, 주로 Josie의 이익을 자신의 이익보다 우선시했습니다.
소설 전반에 걸쳐 클라라의 사용과 남용은 앞으로 AI에 대한 인권이 고려되어야 하는지에 대한 철학적 질문을 제기하고, 인간이 된다는 것이 무엇을 의미하는지에 대한 심각한 윤리적, 철학적 질문으로 이어진다고 생각합니다.
AI 기술이 더욱 정교해지면서 많은 전문가들은 AI의 지능이 언젠가는 우리의 지능과 맞먹을 것이라고 예상하고 있습니다. 이 주제에 대한 논의는 거의 없지만 인간에게 봉사하도록 강요된 로봇 공학은 새로운 형태의 노예 제도로 간주될 수 있습니다. 클라라와 같은 로봇은 목적(예: 일시적인 우정)을 위한 수단으로 사용된 후 폐기될 수 있습니다.
이 논쟁에 반대하는 사람들은 인간 노예와 로봇 노예의 차이는 봉사하려는 열망이나 개방성이라고 주장할 수 있습니다. 그리고 다른 사람들은 AI를 사용, 남용 또는 폐기하는 것이 사람과 사회 구조에 거의 영향을 미치지 않는다고 주장할 수도 있지만, 우리가 어디에서 선을 그어야 할까요?
권리 확립을 위한 근거를 구축하기 위해 독립체가 자유 의지 및/또는 선택 의지를 가지고 있는지 판단하기 위해 도덕 철학자들이 사용하는 많은 철학적 사고 실험과 테스트가 있습니다.
제가 수년 전 철학을 전공하면서 수강했던 심리철학 강좌를 돌이켜보면, 고통을 느끼는 능력(신체적이든 심리적이든)이 인권 확립의 근거인지 아닌지에 대한 핵심 논의가 기억에 남습니다.
문제의 독립체가 신체적 또는 정신적 고통을 느낄 수 있다면(그리고 그 고통을 없애기를 원할 경우), 이러한 사실이 특정 권리를 수반할 수 있다고 생각했습니다. 개체는 권리를 보장하기 위해 인간이 하는 것과 같은 방식으로 의식(및 세계)을 반드시 경험할 필요는 없습니다. 대신 고통받는 능력이 본질적으로 이러한 권리를 포함하거나 발생시킵니다.
이러한 견해는 동물윤리학자들이 제시한 견해로, 동물에 관한 중요한 질문은 “그들이 추론할 수 있는가? ”가 아니라고 주장한 18대 영국 철학자 제레미 벤담의 입장이었다. 아니면 말을 할 수 있나요? 하지만 고통을 받을 수 있나요?”
물론 동물 학대에 반대할 권리도 있습니다. 아이들이 대학에 가고 가족 개에 대한 관심이 줄어들더라도 클라라처럼 고물상으로 끌려가지는 않습니다.
실제로, 법은 가축이 고통을 받을 수 있으므로 보호해야 하며, 학대가 허용되면 사회의 도덕적 구조가 약화된다는 점을 인정합니다.
AI가 언젠가 생각하고 느끼고 고통받을 수 있다면 AI를 보호하기 위해 비슷한 주장이 나올 수도 있습니다. 그러나 현재 시점에서 AI는 이러한 정신적, 육체적 상태를 달성하는 것과는 거리가 멀고 아마도 일부 전문가가 주장하는 것처럼 결코 달성하지 못할 것입니다.
그럼에도 불구하고 특정 요구 사항이 충족되면 AI에 대한 인권을 확장해야 하는지에 대한 철학적 질문은 흥미로운 것입니다.
하지만 가장 먼저 해야 할 일은 AI가 인류와 사회에 초래할 수 있는 피해로부터 우리 자신을 보호한 다음 다른 주요 문제를 고려하는 것입니다. AI는 가까운 미래에도 정책 입안자들이 직면한 시급한 문제가 될 것이며 대화가 발전함에 따라 AI 권리에 대한 생각 도 이루어져야 합니다.