2017년, 로봇 이 일에 지쳐 분수대에서 자살 했습니다. 그러다가 2022년에 Google 엔지니어가 회사의 챗봇인 LaMDA와 상호작용한 후 기술이 의식화되었다고 선언했습니다 . 최근 2021년에는 테슬라의 소프트웨어 엔지니어가 통제되지 않는 로봇의 공격을 받았다는 보도가 나왔다. 이것은 기계가 일자리를 훔칠 것이라는 두려움이나 기계가 세상을 장악할 것이라는 고전적인 허구를 고려하지 않은 것입니다.
Blade Runner에서는 기계를 리플리컨트로 보지 않지만, 사람들은 의인화하거나 인간의 특성을 인간이 아닌 존재에게 귀속시키는 경향이 있습니다[1]. 그것은 시나리오를 분석하고 이를 우리가 이해할 수 있는 방법입니다. 우리는 보트와 토네이도에 이름을 부여하고, 애완동물과 대화하며, 그들이 우리에게 주는 즐거운 느낌은 사랑이라고 말합니다. 우리가 이야기하고 있는 모델이 확률론적 앵무새에 지나지 않을 수도 있다는 점을 받아들이는 것보다 1인칭으로 "죄송합니다. 어떻게 도와야 할지 모르겠습니다"라고 선언하는 시스템을 이해하는 것이 더 쉽습니다. [2]
그러므로 의인화된 상호작용은 "작용의 환상" 현상과 관련이 있습니다. 이는 실제로는 그러한 능력을 보유하지 않은 개체에 자율적인 행동이나 통제를 부여하는 경향을 가리키는 심리학적 개념입니다. 즉, 행위자(사람, 동물, 기계 등)가 자신의 자유 의지에 따라 행동하지만 실제로는 행위의 행동이 외부 요인(계산의 경우 개발)에 의해 결정된다는 잘못된 인식입니다. 규칙).
AI 시스템이 잘못된 결정이나 행동을 하는 상황에서는 이러한 오류를 인간이 프로그래밍하고 설계한 결과라기보다는 해당 개체의 "선택"으로 보는 경향이 있습니다. 부정적인 결과의 원인과 책임을 자신의 탓이 아닌 것으로 여기게 만드는 인간의 모습은 인간과 기계의 상호작용에서도 관찰될 수 있다[3].
이러한 인식의 변화는 사법 규제의 문제가 아니라 인간 창작자, 운영자 및 규제 기관의 책임을 면제하는 위험한 경향이 있습니다(주제의 복잡성뿐만 아니라 인공적인 지능은 기계 학습으로만 이해되는 경우가 많으며 전제가 적절하게 구성되어 있지 않습니다. 더 엄격한 규제가 필요한가요? 더 많은 위험을 감수해야합니까?) 그러나 기술 윤리적 문제에 관한 것입니다.
2023년의 좀 더 극단적이지만 실제 사건을 살펴보겠습니다. 챗봇에 감정적으로 애착을 가졌던 사용자가 자신의 생각을 봇과 공유하고 "말을 행동으로 바꾸세요"라는 응답과 기타 메시지를 받은 후 자살했습니다. 이 제품 개발자에 대한 법원 유죄 판결로 인해 메시지 내용과 애정이 동일하다면 이 챗봇이 비활성화되었다고 가정할 때 다른 사용자가 다른 챗봇과 동일한 방식으로 행동하게 될까요? 이는 단지 법적 상황만이 아닙니다. 이는 사회적, 심리적, 기술적 교육 문제입니다.
AI를 인간화한다는 개념은 모호하며, AI 설계 및 활용에 대한 모범 사례를 규정하는 보편적으로 수용되는 접근 방식이 없다는 점에서 중요한 과제가 있습니다. 인간 행동을 모방하는 인터페이스가 더 접근하기 쉬울 수 있지만 제품에서 수행해야 할 작업과 수행하지 말아야 할 작업을 정의하는 명확한 경계는 없습니다. 인터페이스가 너무 낯설어지기 전에 잠재적인 피해가 나타날 수 있지만 궁극적으로 사용자 거부가 유일한 제한 요소가 됩니다.
사용자 친화적인 인터페이스는 그 뒤에 작동하는 시스템의 복잡성을 줄여줍니다. 그러나 시스템 작동 방식에 대한 교육이 없는 한 사용자는 자신이 사용하는 것에 대해 비판적으로 생각할 수 없습니다. 이는 모든 사람이 프로그래머가 되어야 한다는 의미는 아니지만, 적어도 화면의 출력은 데이터 수집, 모델 개발 및 설계 경로에서 나온다는 점을 이해해야 합니다. 일련의 규칙이 적용됩니다. 인간화는 우리 사용자 입장에서는 거의 무의식적인 행위이기 때문에 최소한의 지식으로 제한해 보도록 하겠습니다.
그리고 AI에 대해 소통할 때 의인화를 피하는 것은 쉽지 않습니다. 특히 업계, 미디어, 일상 생활 자체의 표준 언어인 기계 학습 , 컴퓨터 비전 , 생성 모델링을 고려하면 더욱 그렇습니다. 인공 지능에 대한 인식은 특정 언어 사용에 의해 영향을 받을 수 있습니다.
AI가 제시되는 방식은 특히 사람들이 수행한 작업에 대한 책임과 인식을 분배하는 방식에 "구체적인 영향"을 미칩니다. 단지 인간의 손에 있는 도구로 설명될 경우, 코드를 운영하는 사람과 같은 특정 개인에게 더 큰 책임과 장점이 부여되는 경향이 있습니다. 반면, AI가 창조 능력과 같은 인간의 특성을 특징으로 한다면 독립적인 사고와 정신적 능력을 가진 주체처럼 더 큰 공로와 책임을 가질 자격이 있는 것으로 간주됩니다. [4] 인공지능과 관련된 사건이나 비정형 사건에 대한 뉴스 기사를 읽을 때 우리는 종종 이러한 용어를 접하게 됩니다.
또한, "지능"의 귀속은 자율적 행동이 작업에 직접적으로 기여하지 않더라도 자율적 행동을 가진 로봇보다 자율적 행동을 가진 로봇이 작업 결과에 대해 더 많은 비난이나 공로를 인정했다는 것을 의미합니다. [3] 따라서 이러한 연구는 인간이 기계의 의인화된 정신 능력을 기반으로 컴퓨터나 로봇에 책임을 할당할 수 있음을 시사합니다.
기계의 인간화는 장치의 책임과 그것을 만든 인간의 책임 사이의 구분을 바꿀 뿐만 아니라, 의도나 의식을 기계에 귀속시키는 동시에 진정한 자율성과 의식을 구성하는 경계를 모호하게 만듭니다.
그러나 인간성과 지각력을 기계에 전가시키는 어려움은 인공지능이 그것을 가질 수 없다는 사실뿐만 아니라 예를 들어 두려움을 느낀다고 말할 때 실제로 배운 것을 모방하고 반복한다는 것입니다. 그 뒤에 어떤 종류의 본질도 없는 그 문구. 오늘날에도 의식을 어떻게 정의할 것인지에 대한 열띤 논쟁이 벌어지고 있습니다. 인간으로서의 우리의 의식.
뇌가 어떻게 작동하는지에 대한 우리의 이해는 여전히 매우 제한적입니다. 우리는 기본 화학, 즉 뉴런이 활성화되는 방식과 화학적 신호의 전달에 대해 상당한 지식을 가지고 있습니다. 우리는 또한 다양한 뇌 영역의 주요 기능을 잘 이해하고 있습니다. 그러나 우리는 이러한 기능이 어떻게 우리를 조율하는지에 대한 지식이 거의 없습니다. 어느 정도 이론적 추측은 뇌에서 일어나는 일에 대한 상세한 신경생리학적 연구를 대체했습니다. 하지만 그 이상은 어떻습니까? [5] 왜 우리는 우리 자신에 대해 이런 마법 같은 개념을 갖고 있습니까? 왜 같은 경험이 우리에게 다르게 영향을 미치나요? 우리 모두가 같은 느낌을 느끼는 걸까요?
인간이 된다는 것이 우리가 그것을 경험하기는 하지만 그것이 전체적으로 무엇인지 아직 완전히 이해하지 못하는 것이라면, 어떻게 기계도 이러한 복잡성을 경험한다고 말할 수 있습니까? 기계를 인간의 능력으로 승격시킴으로써 우리는 인간의 특별한 성격을 감소시킵니다.
브라질 문학계의 최고 영예 중 하나인 2023년 자부티상(Jabuti Prize)에서 브라질 도서 상공회의소(CBL)는 1818년 고전의 판본인 프랑켄슈타인(Frankenstein)이 최우수 일러스트레이션 부문에서 자격을 박탈하기로 결정했습니다. 작가가 AI 솔루션을 사용하여 작품을 개발했다고 보고했기 때문입니다. 예술. 아이러니하게도 논픽션 부문에서 수상한 책 중 하나는 인공 지능이 인간에 미치는 영향을 다루고 있습니다("Humanamente digital: Inteligência Artificial Centrada no Humano", "Humanly Digital: Human-Centered Artificial Intelligence"와 같은 책). 영어로, Cassio Pantaleone 지음). 한편으로 우리는 인간의 경험과 기계의 얽힘을 인식합니다. 반면, 예술 도구로 사용되는 알고리즘이 유효한 창작 방법으로 간주될 수 있는지 여부를 아직 검증하지 못했습니다. 비록 예술 과정이 기계 학습에 의해 수행되더라도 작업이 필요하기는 하지만( 아름다움과 미학에 대한 감상).
기계는 무차별적으로 사용되지 않는 한 일자리를 빼앗지 않습니다. 기계는 무기로 사용되지 않는 이상 사람을 죽이지 않습니다. 기계는 고통을 받거나 공감하지 않습니다. 비록 기계가 우리만이 진정으로 느낄 수 있는 감정을 담은 데이터로 훈련을 받았기 때문에 기계의 텍스트가 이것을 모방하기는 하지만 말이죠. 그들은 거의 골렘 신화의 현대판입니다. 인간은 인간이 아닌 지능과 어떤 관계를 맺을 수 있습니까? 의인화는 유효한 대답이지만 유일한 대답은 아닙니다. 그리고 그것이 사용될 때, 그것이 적절하든 아니든 그 결과에 대한 실제 책임을 우리에게서 면제할 수는 없습니다.
인공지능은 결국 우리 자신을 비추는 거울이다. 그리고 그것이 어디로 가는지 두려워한다면 그것은 사실 우리가 만들 길을 두려워하기 때문입니다.
[1] Epley, N., Waytz, A., & Cacioppo, JT (2007). 인간을 바라보는 것: 의인화의 삼요소론. 심리 검토, 114(4), 864-886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. & Muller, M. (2023) . AI 의인화에 대하여
[3] Kawai, Y., Miyake, T., Park, J. 외. 의인화 기반 로봇의 인과관계와 책임 귀인. Sci Rep 13, 12234(2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG, & Rahwan, I. (2020). AI가 만든 예술에 대한 공로를 인정받는 사람은 누구입니까? iScience(23권 9호, 101515페이지)에서. 엘스비어 BV. https://doi.org/10.1016/j.isci.2020.101515
[5] 고프, P. (2023). 의식을 이해하는 것은 뇌 화학을 탐구하는 것 이상입니다. 사이언티픽 아메리칸
다음 프롬프트는 이 기사에 사용된 이미지를 생성했습니다. "거울을 보는 사람을 만듭니다. 그러나 거울은 로봇 모양입니다." 소피아 × DALL·E