기술철학계의 많은 유명인사들은 기술의 본질을 이해하고 이를 사회 및 인간의 경험과 연결시키려고 노력해왔습니다. 20세기 전반기 그들의 분석 결과는 기술과 인간생활의 괴리가 주로 나타났다.
기술은 인류의 기본적인 부분을 분쇄하는 자율적인 힘으로 간주되었습니다. 기술의 개념을 역사적, 초월적 가정으로 끌어내림으로써 철학자들은 특정 사건의 영향을 추상화하는 것처럼 보였습니다.
80년대에는 특정 기술의 영향을 자신의 관점에 통합한 미국 철학자의 아이디어를 기반으로 기술에 대한 보다 실증적인 관점이 개발되었습니다 (Achterhuis, HJ, "Van Stoommachine tot cyborg; denken over techniek in de nieuwe wasld", 1997) ) . 기술과 사회의 상호의존성은 본 연구의 주요 주제입니다. 이러한 '실증적 전환'을 통해 기술의 다양성과 기술이 사회에서 수행할 수 있는 다양한 역할을 설명할 수 있게 되었습니다. 이 접근 방식은 예를 들어 트벤테 대학교(University of Twente)의 기술 철학자들 사이에서 더욱 발전되었습니다.
인공지능은 1956년 연구 분야로 확립되었습니다. 이는 컴퓨팅 기계의 지능적인 행동과 관련이 있습니다. 연구의 목적은 네 가지로 구분할 수 있다.
이러한 작업을 수행할 수 있는 능력에 대해 수년간 낙관적인 태도를 보였던 이후, 해당 분야는 응용 프로그램에 유용할 수 있는 지능을 표현하는 방법에 대한 과제에 직면했습니다. 여기에는 기본 지식의 부족, 계산의 복잡성, 지식 표현 구조의 제한이 포함 됩니다(Russell, S & Norvig, “Artificial Intelligence: A Modern Approach”, Peter, 2009) . 그러나 이러한 어려움은 디자인 커뮤니티에서만 발생한 것이 아닙니다. 플라톤 시대부터 마음과 이성에 관심을 가졌던 철학자들도 불평하기 시작했습니다. 그들은 수학적 반대(튜링과 괴델에 기초함)와 인간 지능의 본질에 대한 보다 철학적인 주장을 모두 사용하여 AI 프로젝트의 내부 제한을 보여 주려고 했습니다. 그 중 가장 유명한 사람은 Hubert Dreyfus였습니다.
Dreyfus는 인공지능의 목표와 방법을 지능에 대한 분명한 합리주의적 관점으로 보았습니다. 역사 전반에 걸쳐 많은 합리주의 철학자들이 이를 옹호해 왔지만, 드레퓌스 자신은 하이데거, 메를로-퐁티, 비트겐슈타인의 저작에서 볼 수 있듯이 20세기 반합리주의 철학의 지지자에 더 가깝습니다. 드레퓌스(Dreyfus)에 따르면, 가장 근본적인 인지 방식은 이성적인 것이 아니라 직관적인 것입니다. 특정 분야에서 경험을 쌓은 사람은 논증을 처음 연구하는 동안에만 공식화 된 규칙에 집착하게됩니다. 그 이후에는 지능이 경험적 규칙과 직관적인 결정으로 표현될 가능성이 더 높습니다.
AI의 합리적 접근 방식은 소위 상징적 AI의 기반에서 명확하게 추적될 수 있습니다. 지능형 프로세스는 정보 처리의 한 형태로 간주되며 이 정보의 표현은 상징적입니다. 따라서 지능은 기호 조작에만 어느 정도 제한됩니다. Dreyfus는 이를 세 가지 기본 가정의 조합으로 분석했습니다.
Dreyfus는 이러한 가정을 비판했을 뿐만 아니라 지능에 필수적이라고 생각하는 몇 가지 개념을 정의했습니다. Dreyfus에 따르면 지능은 구체화되고 위치됩니다. 지능이 신체를 필요로 한다는 뜻인지, 아니면 신체의 도움을 받아야만 발달할 수 있다는 의미인지가 불분명하기 때문에 구현은 설명하기 어렵습니다. 그러나 적어도 Dreyfus는 지능이 지적 행위자가 위치한 상황과 요소가 해당 맥락과 의미 있는 관계에 있는 상황에 따라 결정된다고 생각한다는 점은 분명합니다. 이는 현실이 형식화된 실체로 축소되는 것을 방지합니다. 드레퓌스의 관점은 명확하게 정의된 형식적 영역을 넘어서 기호를 조작하는 기계의 작동을 불가능하게 만든다.
Dreyfus는 인공 지능에 대한 연결주의적 접근 방식에 대해 보다 긍정적인 태도를 가지고 있습니다. 이 접근 방식은 인간 두뇌의 뉴런 및 뉴런 연결과 유사한 모델링된 구조에서 나타나는 지능적인 행동을 봅니다. 그러나 그는 그러한 기계에서 인간 두뇌의 복잡성이 결코 가능하지 않다는 것을 의심합니다.
따라서 Dreyfus는 AI 목표의 타당성에 대한 논의를 시작했습니다. 그의 작품은 많은 관심을 끌었고 열띤 논쟁을 불러일으켰습니다. 그는 일부 연구자들의 관점을 바꾸고 자신의 비전에 더 부합하는 시스템을 구현하기 시작하도록 만들었습니다. Dreyfus는 상징적 AI가 만든 가정을 시연하고 이러한 가정이 실제 지능형 기계를 탄생시킬 것이라는 것이 결코 명백하지 않다는 점을 분명히 했습니다 ( 기계보다 마음: 컴퓨터 시대의 인간 직관과 전문성의 힘 ) .
그러나 두 가지 사항을 언급해야 합니다. 첫째, Dreyfus는 엄격한 상징적 AI 접근 방식을 비판했습니다. 최근 수십 년 동안 더 많은 하이브리드 지능형 시스템을 만들고 기호 AI에서 비규칙 기반 방법을 구현하려는 여러 시도가 있었습니다. 이러한 시스템은 Dreyfus의 분석으로는 완전히 설명할 수 없는 지능에 대한 다른 관점을 제시합니다. 둘째, 드레퓌스의 비판은 인공지능에 대한 회의적인 시각에 근거한 것으로 보인다. 그 이유는 그 자신의 철학적 배경 때문이기도 하고 열정이 거의 무한했던 시기에 기초가 확립되었기 때문이기도 하다.
자유의지는 이상한 개념이다. 철학은 인간의 마음에 대해 여러 가지 방법으로 논의할 수 있지만, 우리가 결정에 자유로운지 여부에 관한 질문에 관해서는 논의가 위험해집니다. 우리는 의지, 결정, 행동 측면에서 생각하는 데 너무 익숙해서 선택에 있어서 자유롭지 않을 가능성을 고려조차 하지 않습니다. 그러나 다른 것이 있습니다. 그런 논의 중에 인간의 자유 의지가 전혀 없다고 말한다면 어떻게 될까요? 그것이 거짓이라면 내가 틀린 것이고, 그것이 사실이라면 나는 그렇게 말할 수밖에 없었기 때문에 전체 발언의 의미를 잃게 됩니다. 자유의지를 부정하는 것은 실용적인 모순이다. 거부를 무의미하게 만들지 않고서는 사람의 자유 의지를 거부할 수 없습니다.
그럼에도 불구하고, 자유 의지의 문제는 관련성이 있는 것 같습니다. 과학 이론에서는 일어나는 모든 일이 자연 법칙을 따른다고 주장할 수 있기 때문입니다. 따라서 우리는 유기적 기계로 결정되고 싶지 않다면 사람들에게 특별한 재산을 부여하거나 자연법칙이 결정된다는 사실을 부정해야 합니다. 첫 번째 옵션은 많은 철학 이론과 관련이 있지만 무엇보다도 세계를 인간과 연결된 두 가지 물질(정신과 물질)로 나누는 데카르트의 이론과 관련이 있습니다. 두 번째 옵션은 물리학(상대성이론, 양자역학)의 최신 발전을 사용하여 우리의 자유 의지가 예측할 수 없는 자연의 역학에 기초할 수 있음을 보여주는 보다 전체적인 비전을 열어줍니다.
데카르트와 다른 사람들의 이원론적 견해는 인간 이외의 사물에 대한 자유 의지의 존재를 부정합니다. 따라서 자유 의지와 지능 기계에 대한 논의는 특별히 흥미롭지 않습니다. 반면, 그러한 논의에는 전체론적 관점이 더 적합하지만 인간이나 컴퓨터에 자유 의지의 속성을 부여하는 데 필요한 물리적 가정 외에는 다른 결론을 내리기가 어렵습니다. 이것은 순수한 철학적 논의에서는 적절할 수 있지만 컴퓨터 과학과는 거의 관련이 없습니다.
결정론적 견해와 자유 의지적 견해가 모두 정당화되고 필요하기 때문에 인간 본성은 본질적으로 모순적이라는 것을 인식할 가능성도 있습니다. 이러한 변증법적 접근 방식을 통해 우리는 물리적 전제에 대해 걱정하지 않고 인간의 자유 의지에 대해 생각할 수 있습니다. 자유 의지는 인간 존재의 초월적인 전제가 됩니다. 그러나 이 접근 방식의 자유 의지에 대한 초월적 관점은 초월적 전제를 모델링하거나 설계하는 것이 불가능하기 때문에 지능형 기계와 같은 특정 인공물에서의 자유 의지에 대한 논의를 허용하지 않습니다. 이 섹션에서는 자유 의지라는 복잡한 개념을 지능형 기계를 분석하는 데 사용할 수 있는 개념으로 변환하겠습니다. 이 개념은 기술 철학의 경험적 접근 방식과 양립할 수 있어야 합니다. 그러므로 우리는 자유의지 개념을 물리적 또는 초월적 전제로 이야기하는 것을 피하고 오히려 이 개념이 사회에서 수행하는 역할에 초점을 맞춰야 합니다.
이 기사에서 나의 접근 방식에 대한 힌트는 서문 단락에서 찾을 수 있습니다. 자유 의지에 관한 논쟁에 대한 나의 견해는 이 분야의 모든 연구에는 근본적으로 다른 두 가지 접근 방식이 있다는 것입니다. 첫 번째는 자유 의지의 본질과 자연의 "요구"를 피하는 인간의 능력에 대한 심오한 철학적 문제에 중점을 둡니다. 나는 그것을 물리적 접근이라고 부를 것이다. 지능형 기계에 관한 기사에서 이는 컴퓨터의 본질보다는 인간의 본질에 초점을 맞춘 철학적 논쟁으로 이어집니다. 왜냐하면 우리는 단지 그것에 관한 기사를 쓰고 싶었기 때문입니다. 즉 인간도 컴퓨터도 자신을 인식할 수 없는 인간과 컴퓨터의 비교로 논의가 전개되는 것이다.
이 섹션의 첫 번째 단락에서 미묘하게 제안된 또 다른 접근 방식은 우리 자신의 자유 의지를 거부할 수 없다는 점에 초점을 맞추고 있습니다. 앞서 언급했듯이 이러한 거부는 의미가 없습니다. 그러나 그것은 그 자체의 가치를 떨어뜨릴 뿐만 아니라 책임의 기초 전체를 파괴합니다. 이는 사람들의 말이나 행동에 대해 칭찬하거나 비난할 수 없다는 것을 의미합니다. 따라서 우리는 관할권, 일, 우정, 사랑, 그리고 우리 사회를 구축한 모든 것의 원칙을 재고해야 합니다. 이러한 모든 사회 문제에는 선택이 필요하며, 선택에 있어서는 자유 의지의 개념이 필수적입니다. 이것의 핵심은 그것이 물리적으로 정당한지 여부와 관계없이 자유 의지가 우리 사회에 중요한 추정이라는 것입니다. 나는 이것을 사회적 접근이라고 부를 것이다.
자유의지의 추정이 우리 사회에만 필요한 것인지 아니면 어떤 인간 사회에 필요한 것인지는 어려운 질문입니다. 어쨌든 나는 이 질문을 검토할 것입니다. 왜냐하면 그것이 단순히 우리 사회의 구조를 지적하는 것보다 자유 의지의 중요성에 대한 더 철학적인 정당성을 제공할 수 있기 때문입니다. 인간의 본성을 재고하고 자유 의지에 대한 물리적인 접근 방식을 다시 도입하지 않고는 대답하는 것이 불가능해 보입니다. 그러나 상호작용이 인류 문명의 핵심이라고 말할 때 자유 의지라는 개념의 필요성이 자연스럽게 떠오릅니다. 우리는 사람들이 상호 작용 과정에 자유롭게 영향을 미칠 수 있다는 가정 없이는 사람들과 상호 작용할 수 없습니다. 인간의 상호 작용은 우리가 결과를 미리 알 수 없다는 것을 의미하기 때문입니다. 따라서 상호 작용은 선택과 자유 의지의 개념으로 특징 지어집니다. 어떤 사회에서든 상호 작용이 기본이라면, 어떤 사회에서도 자유 의지가 거부될 수 없다는 점도 명시해야 합니다.
상징적 인공지능(AI)은 수치 데이터보다는 기호나 개념을 처리하고 조작하는 데 중점을 두는 AI의 하위 분야입니다. 상징적 인공지능의 목적은 논리적 규칙에 따라 지식과 추론을 표현하고 조작함으로써 인간처럼 추론하고 생각할 수 있는 지능 시스템을 만드는 것입니다.
상징적 인공지능을 위한 알고리즘은 세상의 사물이나 개념을 나타내는 기호와 그 연결을 처리하는 방식으로 작동합니다. 기호 인공 지능의 주요 접근 방식은 규칙과 공리를 사용하여 결론을 도출하는 논리 프로그래밍을 사용하는 것입니다. 예를 들어, 환자가 보고한 증상을 기반으로 질병을 진단하도록 설계된 상징적 인공 지능 시스템이 있습니다. 시스템에는 환자의 상태에 대한 결론을 도출하는 데 사용하는 일련의 규칙과 공리가 있습니다.
예를 들어, 환자가 발열을 보고하는 경우 시스템은 다음 규칙을 적용할 수 있습니다. 환자에게 발열이 있고 기침이 있고 호흡 곤란이 있으면 환자에게 폐렴이 있을 수 있습니다.
그런 다음 시스템은 환자에게 기침과 호흡 곤란도 있는지 확인하고, 만약 그렇다면 환자에게 폐렴이 있을 수 있다고 결론을 내립니다.
이 접근 방식은 적용된 논리적 규칙에 대한 추론 프로세스를 쉽게 추적할 수 있기 때문에 해석하기가 매우 쉽습니다. 또한 새로운 정보가 제공될 때 시스템 규칙을 쉽게 변경하고 업데이트할 수 있습니다.
Symbolic AI는 논리와 같은 형식 언어를 사용하여 지식을 표현합니다. 이 지식은 기호를 조작하는 알고리즘을 사용하는 추론 메커니즘을 통해 처리됩니다. 이를 통해 미리 정의된 규칙과 지식을 기반으로 결론을 도출할 수 있는 전문가 시스템과 의사결정 지원 시스템을 만들 수 있습니다.
상징적 인공지능은 머신러닝, 딥러닝 등 다른 AI 방식과 달리 많은 양의 훈련 데이터가 필요하지 않다는 점에서 다르다. 대신 상징적 AI는 지식 표현과 추론을 기반으로 하기 때문에 지식이 명확하게 정의되고 논리적 규칙으로 표현될 수 있는 분야에 더 적합합니다.
반면, 머신러닝에서는 패턴을 학습하고 예측을 하기 위해 대규모 데이터 세트가 필요합니다. 딥 러닝은 신경망을 사용하여 데이터에서 직접 기능을 학습하므로 복잡하고 구조화되지 않은 데이터가 있는 도메인에 적합합니다.
각 기술을 언제 적용할지는 주제 영역과 사용 가능한 데이터에 따라 다릅니다. 상징적 인공지능은 잘 정의되고 구조화된 지식이 있는 영역에 적합하고, 머신러닝과 딥러닝은 데이터 양이 많고 복잡한 패턴이 있는 영역에 적합합니다.
인공 지능 철학에 대한 연결주의적 접근 방식은 신경망의 원리와 인간 두뇌와의 유사성에 기반을 두고 있습니다. 이 접근 방식은 정보를 처리하고 데이터로부터 학습하기 위해 생물학적 시스템에서 상호 연결된 뉴런의 동작을 모방하기 위한 것입니다. 연결주의적 접근법의 몇 가지 주요 측면은 다음과 같습니다.
연결주의적 접근 방식에는 종종 인공 뉴런 또는 노드라고 불리는 상호 연결된 노드로 구성된 인공 신경 네트워크의 생성이 포함됩니다. 이러한 인공 뉴런은 입력 데이터를 수신하고, 계산을 수행하고, 네트워크의 다른 뉴런에 신호를 전송하도록 설계되었습니다.
연결주의적 접근 방식은 네트워크의 인공 뉴런이 함께 작동하여 정보를 처리한다고 가정합니다. 각 뉴런은 입력 신호를 받아 이를 기반으로 계산을 수행하고 출력 신호를 다른 뉴런으로 전송합니다. 네트워크의 출력은 뉴런의 집단적 활동에 의해 결정되는 반면, 정보는 뉴런 간의 연결을 통해 흐릅니다. 연결주의적 접근 방식의 중요한 측면은 데이터로부터 학습하는 인공 신경망의 능력입니다. 학습 과정에서 네트워크는 입력 데이터와 원하는 결과를 기반으로 뉴런 간의 연결 강도(가중치)를 조정합니다. 네트워크의 예측 출력과 예상 결과의 반복적인 비교를 기반으로 가중치가 업데이트되어 차이를 최소화하고 네트워크 성능을 향상시킵니다.
연결주의 시스템은 여러 계산이 네트워크에서 동시에 수행되는 병렬 처리를 강조합니다. 이는 효율적이고 안정적인 정보 처리를 보장합니다. 또한 연결주의 모델은 분산 표현을 사용합니다. 즉, 정보가 단일 위치에 국한되지 않고 여러 뉴런에 인코딩된다는 의미입니다. 이 분산 표현을 통해 네트워크는 복잡한 패턴을 처리하고 제한된 예를 기반으로 요약할 수 있습니다.
연결주의적 접근 방식은 여러 계층으로 구성된 심층 신경망을 훈련하는 데 초점을 맞춘 인공 지능 의 하위 분야인 딥 러닝의 기초입니다. 딥러닝 모델은 컴퓨터 비전, 자연어 처리, 음성 인식 등 다양한 분야에서 큰 성공을 거두었습니다. 복잡한 작업에서 고급 성능을 제공하는 계층적 데이터 표현을 자동으로 학습하는 기능을 보여주었습니다.
일반적으로 인공 지능 철학에 대한 연결주의적 접근 방식은 인간 두뇌 처리의 협력적이고 병렬적인 특성을 모방하기 위해 인공 신경망을 사용하는 것을 강조합니다. 가중치 조정을 사용하여 데이터로부터 학습함으로써 연결주의 시스템은 AI 응용 프로그램에서 복잡한 문제를 해결하고 인상적인 결과를 달성하는 데 매우 효과적인 것으로 입증되었습니다.
신경망은 인간의 두뇌와 같은 생물학적 신경망의 구조와 기능에서 영감을 얻은 계산 모델입니다. 층으로 배열된 상호 연결된 노드(인공 뉴런)로 구성된 수학적 구조입니다. 신경망은 데이터를 처리하고 학습하여 패턴을 인식하고 예측하며 다양한 작업을 수행할 수 있도록 고안되었습니다.
인공 뉴런은 신경망의 기본 단위입니다. 각 뉴런은 하나 이상의 입력 데이터를 받아 이에 대한 계산을 수행하고 출력 데이터를 생성합니다. 출력 데이터는 일반적으로 네트워크의 다른 뉴런으로 전송됩니다.
신경망의 뉴런은 뉴런 사이의 정보 흐름을 나타내는 연결을 통해 서로 연결됩니다. 각 연결은 전송되는 신호의 강도나 중요성을 결정하는 가중치와 관련됩니다. 네트워크 성능을 최적화하기 위해 학습 프로세스 중에 가중치 인자가 조정됩니다.
신경망은 일반적으로 레이어로 배열됩니다. 입력 레이어는 초기 데이터를 수신하고, 출력 레이어는 최종 결과 또는 예측을 생성하며, 그 사이에 하나 이상의 숨겨진 레이어가 있을 수 있습니다. 숨겨진 레이어를 사용하면 네트워크는 입력 정보를 변환하고 결합하여 복잡한 표현을 학습할 수 있습니다.
각 뉴런은 가중 총 입력 데이터에 활성화 함수를 적용하여 출력 신호를 생성합니다. 활성화 기능은 네트워크에 비선형성을 제공하여 복잡한 연결을 모델링하고 비선형 예측을 할 수 있도록 합니다.
신경망은 피드포워드 원칙에 따라 데이터를 처리합니다. 입력 데이터는 각 뉴런에 대해 계산이 수행되면서 네트워크 계층을 통해 전달됩니다. 한 레이어의 출력은 최종 결과가 생성될 때까지 다음 레이어의 입력으로 사용됩니다.
신경망은 훈련이라는 프로세스를 통해 데이터를 학습합니다. 훈련 중에 입력 데이터는 원하는 출력과 함께 네트워크에 제공됩니다. 예측을 원하는 결과와 비교함으로써 경사하강법 및 역전파와 같은 알고리즘을 사용하여 네트워크의 가중치가 조정됩니다. 이 반복 프로세스를 통해 네트워크는 예측과 예상 결과 간의 차이를 최소화할 수 있습니다.
심층 신경망(DNN)은 여러 개의 숨겨진 계층이 있는 신경망을 말합니다. 심층 신경망 훈련에 초점을 맞춘 딥러닝은 계층적 표현을 자동으로 학습하고 데이터에서 복잡한 패턴을 추출하는 기능으로 인해 최근 몇 년 동안 상당한 주목을 받았습니다.
신경망은 이미지 인식, 자연어 처리, 음성 합성 등 다양한 분야에서 매우 성공적이었습니다. 대량의 데이터를 처리하고, 예시를 기반으로 요약하고, 복잡한 계산을 수행할 수 있어 인공지능 분야에서 강력한 도구가 됩니다.
“물질이 어떻게 의식을 가질 수 있는지에 대해 조금도 아는 사람은 없습니다. 어떤 물질이 어떻게 의식을 가질 수 있는지에 대해 조금이라도 아는 것이 어떤 것인지조차 아무도 모릅니다.” (Jerry Fodor, Ernest Lepore, “전체론: 쇼핑객 가이드”, Blackwell, 1992) . Jerry Fodor는 이 말을 한 것으로 알려져 있으며, 나는 기계가 어떻게 의식을 가질 수 있는지 알아내려고 노력하면서 내가 직면한 모든 어려움을 설명한다고 믿습니다. 그러나 이 말이 인공의식을 가진 기계를 만들 수 있다는 주장을 포기하려는 나의 시도를 포기하도록 격려하지는 않습니다. 사실 그들은 그 반대입니다. 그들은 우리(물질적 존재)가 의식을 가질 수 있다면 의식은 물질적인 것임에 틀림없으며 따라서 이론적으로는 인위적으로 창조될 수 있다고 생각하도록 격려합니다.
의식의 핵심은 이것이 한 가지가 아니라는 것입니다. 이는 모두 다양한 방식으로 혼합된 다형성 개념의 집합입니다. 그래서 그것들을 모두 풀고, 각각을 따로 설명하려고 노력하는 것은 어렵습니다. 일부 측면을 설명하기 위해 최선을 다하는 동안 상호 연결이 어려워지기 때문에 이를 염두에 두는 것이 중요합니다. 결론적으로 나는 가상 머신에서 강력한 인공 의식의 실현 가능성을 정당화하기 위해 이러한 모든 개념을 결합하려고 시도합니다.
일반적으로 인공의식(이하 AC)은 약한 AC와 강한 AC의 두 부분으로 나누어진다. 약한 AC는 "의식적인 행동의 시뮬레이션"입니다. 의식을 생성하는 메커니즘을 이해하지 않고도 의식이 있는 존재의 행동을 특정 수준의 세부 사항으로 시뮬레이션하는 지능형 프로그램으로 구현될 수 있습니다. 강력한 AC는 “정교한 컴퓨팅 기계(인공 두뇌)에서 나오는 실제 의식적 사고입니다. 이 경우 자연적인 동등물과의 주요 차이점은 프로세스를 생성하는 하드웨어에 달려 있습니다.” 그러나 Chrisley와 같은 일부 학자들은 AC의 중간 영역, 즉 인공 의식 지연이라고 부르는 것이 많이 있다고 주장합니다.
컴퓨팅 혁신이 매년 기하급수적으로 증가함에 따라 고전력 AC의 타당성이 점점 더 중요해지고 있습니다. 인공지능(이하 AI)이 공상과학의 페이지에서 과학의 영역으로 이동하면서 이를 주목하는 과학자와 철학자가 늘어나고 있다. 스티븐 호킹(Stephen Hawking), 엘론 머스크(Elon Musk), 빌 게이츠(Bill Gates) 등 세계 최고의 사상가 중 다수가 최근 책임감 있게 AI를 사용하고 모든 인류의 이익을 위해 촉구하는 공개 서한에 서명했습니다. 이 진술은 이런 종류의 인공 지능(순전히 지적)을 언급하는 것도 아니고, “AI를 어떻게 프로그래밍해야 하는가?”라는 질문을 던지는 소위 “기계 질문”과도 관련이 없습니다. 즉, 어떤 윤리적 교리를 가르쳐야 하며 그 이유는 무엇입니까?
이러한 주제는 흥미롭고 매우 중요하지만 여기서 이러한 문제에 대한 심층 분석을 제공하기에는 시간이 충분하지 않습니다. 이에 대한 자세한 내용은 Nick Bostrom, Miles Brundage 및 George Lazarus를 참조하세요.
우리는 기계가 지능적으로 행동할 수 있다는 것을 이미 알고 있습니다. 그리고 우리가 프로그래밍했기 때문에 논리를 사용하여 문제를 해결하고 해결책을 찾을 수 있지만 경이로운 의식을 위한 기계의 능력에 대한 의구심이 나타나고 널리 퍼져 있습니다. 우리는 감정, 경험, 자유 의지, 신념 등을 가지고 있다는 점에서 기계와 다릅니다. 대부분의 사람들은 우리의 유전학과 생물학에 특정 "프로그램"이 있다는 데 동의하지만 스스로 선택할 수 있다는 것과 인공 컴퓨터 프로그램은 최초의 고유하고 개인적인 주관적 경험을 재현할 수 없습니다.
그러나 강력한 AC를 생산할 수 있는 기계가 존재할 가능성이 없다면 이 진술은 흥미롭지 않을 것입니다. 강한 AC와 양립할 수 있는 가장 많이 인용되는 의식 이론은 기능주의이다. 이것은 의식이 그 기능에 의해 정의된다는 것을 의미합니다. 이론적으로는 단순화되어 있지만 기능주의에는 몇 가지 유형이 있습니다. 이 이론은 Alan Turing, Turing 기계 및 Turing 테스트와의 연관성으로 유명합니다. 행동주의의 후손인 그는 (때때로) 마음에 대한 계산적 관점을 갖고 있으며 기능이 의식의 진정한 매개변수라고 생각합니다. 그는 또한 현상적인 의식, 질적 상태, 감각질을 설명하지 못한 것으로 어느 정도 알려져 있습니다. 이 수수께끼에 대한 답은 많지만, 나는 질적 상태에 대한 존재론적으로 보수적인 제거주의적 관점을 선호합니다. 그것을 제거주의적으로 만드는 이유는 일반적으로 정의되는 감각질은 존재할 수 없다고 주장하기 때문입니다. 그러나 나는 감각질과 질적 상태에 대한 우리의 직관적인 이해가 잘못되었다는 생각을 거부합니다. qualia의 개념은 단순히 오해되고 있습니다. 인위적으로 만들어질 수도 있습니다. 이것은 의식이 있는 존재가 한 번에 하나의 특정 정신 상태에 국한되지 않고 항상 동시에 여러 상태에 있다는 가상 머신의 더 큰 기능주의의 하위 이론입니다. 가상 머신에서는 이는 다양한 시스템과 하위 시스템으로 설명됩니다.
도덕적 행위자의 궁극적인 기준(그리고 자율성의 세 가지 조건 이론, 즉 합리적으로 행동하는 것의 궁극적인 요구사항)은 합리성입니다. 이 기준은 아마도 인공 에이전트에 대해 가장 논쟁의 여지가 적은 것이므로 마지막에 두었습니다. 합리성과 논리는 대중문화에서 인공적 행위자를 정의하는 특징이다. 현대 컴퓨터와 약한 AI 시스템은 논리로 유명합니다. 그들은 대규모 계산을 수행하고 매우 복잡한 결정을 신속하고 합리적으로 내릴 수 있습니다. 그러나 인공 에이전트의 합리성에 대해서는 논란이 없지 않습니다. 앞서 살펴본 것처럼 Searle은 어떤 구문도 의미론과 동일할 수 없다고 주장하면서 실제로 생각하고 이해하는 기계의 능력에 대한 우려를 제기합니다. 나는 이미 중국 방과 이 문제에 대한 나의 반응을 다루었지만 의식의 다형성 본질과 의식 이론에서 감각질과 현상적 의식을 설명하는 것의 중요성을 다시 한 번 강조하고 싶습니다.
자율적 합리성과 일반 합리성은 동일한 것이 아니라는 점을 언급해야 한다. 자율성 측면에서 합리성은 '동물적 본능'을 뛰어넘어 자신만의 합리적인 규칙에 따라 삶을 살아갈 수 있도록 의지를 심어주는 행위로, 행동하기 전에 생각하는 것을 의미합니다. 이런 점에서 현대 컴퓨터와 약한 AI 시스템의 합리성은 자율적이지 않습니다. 그들은 선택의 여지가 없습니다. 그들은 단순히 프로그래밍된 대로만 수행합니다. 어떤 측면에서 이는 자유 선택을 포함하므로 위에서 논의한 알고리즘의 결정론적 추종과 관련이 있습니다. 앞서 살펴보았듯이 가상 머신은 의식이 뛰어나고, 비결정적("자유")이며, 내부적으로 의도적이며 민감합니다(신념, 욕망, 고통 및 즐거움을 경험할 수 있음). 그러나 모든 것을 말하고 완료해도 여전히 기계입니다. 이 수준의 복잡성에 도달하려면 정밀하고 합리적으로, 알고리즘적으로, 구조적으로 설계되고 의식과 결합된 알고리즘 컴퓨터의 '냉각적 합리성'이 이를 자율적으로 합리적으로 만드는 것입니다. 감정, 즉 감정, 경이로운 의식, 고통/쾌락을 경험하는 능력, 그리고 그에 따른 신념과 욕구는 쾌락주의적 감정을 극복하고 합리적이고 자율적인 결정을 내릴 수 있도록 준비시킵니다.
인공지능(AI)은 오늘날 매우 역동적인 연구 분야입니다. 1950년대에 설립되어 오늘날까지 건재합니다. AI 개발 과정에서 다양한 연구 방식이 경쟁을 불러일으켰고, 새로운 도전과 아이디어가 계속 등장했습니다. 한편으로는 이론적 발전에 대한 저항이 크지만, 다른 한편으로는 기술의 진보는 과학사에서 보기 드문 눈부신 성과를 거두었습니다.
AI와 그 기술 솔루션의 목표는 기계를 사용하여 인간 지능을 재현하는 것입니다. 결과적으로 연구 대상이 물질적, 정신적 영역과 겹쳐서 상당히 복잡해졌습니다. 지능의 특징은 AI 개발의 굴곡진 성격을 결정하며, AI가 직면한 많은 문제는 철학과 직접적인 관련이 있습니다. 많은 AI 전문가들이 철학에 큰 관심을 가지고 있다는 것을 쉽게 알 수 있습니다. 마찬가지로 AI 연구 결과도 철학계에서 많은 관심을 끌었습니다.
현대 인공지능 과학의 기초 연구로서 인지 연구의 목적은 인간의 뇌 의식의 구조와 과정을 명확하게 이해함과 동시에 인간 의식의 지능, 감정, 의도의 결합에 대한 논리적인 설명을 제공하는 것입니다. , 인공지능 전문가들이 이러한 의식 과정의 형식적 표현을 용이하게 하기 때문입니다. 인공지능이 인간의 의식을 모방하기 위해서는 먼저 의식의 구조와 작동을 배워야 한다. 의식은 어떻게 가능한가? Searle은 "무언가가 어떻게 가능한지 설명하는 가장 좋은 방법은 그것이 실제로 어떻게 존재하는지 밝히는 것"이라고 말했습니다. 이를 통해 인지과학은 인공지능의 발전을 앞당길 수 있습니다. 결정적으로 이것이 인지전환이 일어나는 가장 중요한 이유이다. 이는 물리적 기호 시스템, 전문가 시스템, 지식 공학에서 생물학적 컴퓨터 및 개발에 이르기까지 컴퓨터 과학 및 기술이 어떻게 발전하는지에 관계없이 철학과 인지 심리학, 인지 신경 과학, 뇌 과학, 인공 지능 및 기타 학문 간의 시너지 관계에 기인합니다. 양자 컴퓨터의.
철학에 의한 인간 의식의 전과정과 다양한 요소에 대한 지식과 이해는 불가분의 관계에 있다. 인식론적 관점에서 볼 때 인공 지능이 강하든 약하든 관계없이 인공 지능은 인간 사고의 일부 기능을 시뮬레이션하기 위해 물리적 상징 시스템에 의존합니다. 그러나 인간 의식의 진정한 시뮬레이션은 로봇 자체의 기술 혁신뿐만 아니라 의식 과정과 이에 영향을 미치는 요인에 대한 철학적 이해에도 달려 있습니다. 현재의 관점에서 볼 때 인공지능의 철학적 문제는 인공지능의 본질이 무엇인가가 아니라 지적 모델링의 좀 더 구체적인 문제를 해결하는 것이다.
의도성의 문제에 관해, 기계가 마음이나 의식을 가질 수 있습니까? 그렇다면 의도적으로 사람들에게 해를 끼칠 수 있습니까?
컴퓨터가 의도적인지 여부에 대한 논쟁은 다음과 같이 요약될 수 있습니다.
의도성이란 무엇입니까? 로봇이 지시에 따라 특정한 방식으로 행동하는 것이 의도적인 것일까요?
사람들은 행동하기 전에 자신이 무엇을 하고 있는지 이미 알고 있습니다. 그들은 자기 인식을 가지고 있으며 자신의 행동이 어떤 결과로 이어질지 알고 있습니다. 이것은 인간 의식의 중요한 특징입니다. 그렇다면 로봇이 지시에 따라 특정한 방식으로 행동한다는 것을 어떻게 이해해야 할까요?
의도성을 프로그래밍할 수 있나요?
Searle은 “뇌가 심장을 생성하는 방식은 단순히 컴퓨터 프로그램을 작동하는 방식이 될 수 없다”고 믿습니다. 대신 사람들은 다음과 같이 질문해야 합니다. 의도성은 이해 가능한 정신인가? 이해할 수 있다면 왜 프로그래밍할 수 없습니까? Searle은 컴퓨터에 문법은 있지만 의미론은 없다고 믿습니다. 그러나 실제로 문법과 의미론은 하나의 문제이며 결코 분리되지 않습니다. 프로그램이 문법과 의미론을 함께 통합할 수 있다면 문법과 의미론을 구별해야 합니까? Searle은 컴퓨터가 의도적으로 복사하더라도 그 복사본은 원본이 아니라고 주장합니다. 사실, 우리가 인간의 인지와 인간 행동과의 연관성을 명확히 이해하게 되면 우리의 정신 과정과 인간의 두뇌 행동 사이의 연관성을 프로그래밍하고 우리가 알고 있는 모든 종류의 사람들을 입력할 수 있어야 합니다. 이것은 컴퓨터가 "모든 것을 알 수 있게" 만드는 정보입니다. 그러나 그때의 우리도 Searle이 말한 것처럼 될 수 있을까? 지능이 아니라 인공지능인가? 인공지능은 인간의 단백질과 신경세포가 부족해서 의도성과 사고과정이 없는 걸까요? 의도적인 복제는 "의도적"입니까? 이해한 내용을 복사하는 것이 실제 “이해”입니까? 아이디어의 중복은 '생각'인가? 생각의 중복은 '생각'인가? 우리의 대답은 기본은 다르지만 기능은 동일하다는 것입니다. 동일한 기능을 형성하기 위해 서로 다른 기반에 의존하는 인공지능은 인간의 지능을 실현하는 특별한 방법일 뿐입니다. Searle은 의도성을 사용하여 인공 지능의 깊이를 부정합니다. 인공지능이 인간의 생각을 흉내낼 수 있다는 데는 일정한 근거가 있지만, 사람들이 인공지능과 인간지능이 크게 다르다고 생각하더라도 우리는 이 차이가 더 이상 의미가 없다고 느낄 것이다. Searle의 관점은 인간의 마음을 다시 수수께끼로 만들 수 있습니다!
지능의 문제를 말하자면, 기계도 인간과 마찬가지로 지능을 이용해 문제를 해결할 수 있을까요? 아니면 기계가 복잡한 문제를 해결하기 위해 지능을 가질 수 있는 데에는 한계가 있습니까?
Polanyi에 따르면 사람들은 소위 숨겨진 능력을 무의식적으로 사용할 수 있습니다. “사람들은 자신이 표현할 수 있는 것보다 더 많은 것을 알고 있습니다.” 여기에는 사이클링과 워밍업뿐만 아니라 더 높은 수준의 실용적인 기술도 포함됩니다. 불행하게도 규칙을 이해하지 못하면 컴퓨터에 규칙을 가르칠 수 없습니다. 이것이 폴라니의 역설이다. 이 문제를 해결하기 위해 컴퓨터 과학자들은 인간의 지능을 변화시키려는 것이 아니라 데이터를 통한 사고라는 인공 지능의 새로운 사고 방식을 개발했습니다.
마이크로소프트 리서치의 수석 연구원인 리치 카루아나는 “인공지능의 원리는 인간이 먼저 인간을 이해한 뒤 같은 방식으로 인공지능을 만들어내는 것이라고 생각할 수도 있지만, 그렇지 않다”고 말했다. 비행기를 예로 들어 보겠습니다. 비행기는 새가 어떻게 나는지 이해하기 오래 전에 만들어졌습니다. 공기 역학의 원리는 달랐지만 오늘날 우리의 비행기는 어떤 동물보다 더 높이, 더 빠르게 날아갑니다."
오늘날 사람들은 일반적으로 스마트 컴퓨터가 우리의 직업을 대신할 것이라고 생각합니다. 아침 식사를 마치기 전에 이미 주간 작업량을 완료하고 휴식을 취하지도 않고, 커피를 마시거나, 은퇴하거나, 심지어 잠도 자지 않아도 됩니다. 그러나 사실은 미래에 많은 작업이 자동화될 것이지만 적어도 단기적으로는 이 새로운 유형의 지능형 기계가 우리와 함께 일할 가능성이 높습니다.
인공지능의 문제는 폴라니의 역설의 현대판이다. 우리는 인간 두뇌의 학습 메커니즘을 완전히 이해하지 못하기 때문에 인공지능이 통계처럼 생각하도록 놔둔다. 아이러니한 점은 현재 우리는 인공지능이 어떻게 생각하는지에 대한 지식이 거의 없기 때문에 알려지지 않은 두 가지 시스템이 있다는 것입니다. 이를 종종 "블랙박스 문제"라고 합니다. 입력 및 출력 데이터는 알고 있지만 앞에 있는 상자가 어떻게 결론에 도달했는지는 알 수 없습니다. Caruana는 "우리는 이제 두 가지 유형의 지능을 가지고 있지만 둘 다 완전히 이해할 수는 없습니다."라고 말했습니다.
인공신경망은 언어 능력이 없어 자신이 무엇을, 왜 하는지 설명할 수 없고, 여느 인공지능과 마찬가지로 상식도 부족하다. 사람들은 일부 AI 작업이 때때로 성차별이나 인종 차별과 같은 의식적인 편견을 숨길 수 있다는 점에 대해 점점 더 우려하고 있습니다. 예를 들어, 범죄자가 반복적으로 범죄를 저지를 확률을 평가하는 데 사용되는 최근 소프트웨어가 있습니다. 흑인에게는 두 배나 힘든 일입니다. 그들이 받은 데이터가 완벽하다면 그들의 결정은 정확할 가능성이 높지만 대부분 인간의 편견에 영향을 받습니다.
윤리 문제에 관해서, 기계가 인간에게 위험할 수 있습니까? 과학자들은 기계가 윤리적으로 행동하고 인간에게 위협을 가하지 않는다는 것을 어떻게 확인할 수 있습니까?
기계가 사랑이나 증오와 같은 감정을 느낄 수 있는지에 대해 과학자들 사이에 많은 논쟁이 있습니다. 그들은 또한 인간이 AI가 의식적으로 선과 악을 위해 노력할 것이라고 기대할 이유가 없다고 믿습니다. 인공 지능이 어떻게 위험이 되는지 고려할 때 전문가들은 가장 가능성 있는 두 가지 시나리오가 있다고 생각합니다.
AI는 파괴적인 작업을 수행하도록 설계되었습니다. 자율 무기는 살인을 위해 설계된 인공 지능 시스템입니다. 이러한 무기가 악인의 손에 들어가면 쉽게 큰 피해를 입힐 수 있습니다. 또한, AI 군비 경쟁은 의도치 않게 AI 전쟁을 촉발해 수많은 희생자를 낳을 수도 있다. 적군의 간섭을 피하기 위해 "폐쇄형" 무기 프로그램은 극도로 복잡하게 설계될 것이며, 따라서 인간도 그러한 상황에서 통제력을 상실할 수 있습니다. 이러한 위험은 특수 인공 지능(협소 AI)에도 존재하지만 지능 AI와 더 높은 수준의 자기 지시로 인해 증가할 것입니다.
AI는 유용한 작업을 수행하도록 설계되었지만 수행하는 프로세스는 파괴적일 수 있습니다. 이는 인간과 인공 지능의 목표가 아직 완전히 일치하지 않은 경우 발생할 수 있으며, 인간과 인공 지능의 목표 일치를 해결하는 것은 쉬운 작업이 아닙니다. 가능한 한 가장 빠른 속도로 공항까지 데려다 주기 위해 스마트 카를 호출한다면, 스마트 카는 당신이 원하지 않는 방식으로라도 당신의 지시를 필사적으로 따를 수 있습니다. 당신은 헬리콥터에 쫓기거나 과속으로 인해 구토를 할 수도 있습니다. 슈퍼 스마트 시스템의 목적이 야심 찬 지구공학 프로젝트라면 부작용은 생태계 파괴일 수 있고, 이를 막으려는 인간의 시도는 반드시 제거되어야 할 위협으로 보일 것이다.
개념성의 문제는 인공지능의 개념적 기반에 문제가 있다.
모든 과학은 아는 것을 바탕으로 하며, 과학적 관찰 능력도 잘 알려진 것과 연결되어 있습니다. 우리는 알려지지 않은 것을 이해하기 위해 우리가 아는 것에 의존할 수 있습니다. 알려진 것과 알려지지 않은 것은 언제나 한 쌍의 모순이며, 항상 공존하고 서로 의존하고 있습니다. 알려진 것이 없이는 알려지지 않은 것을 배울 수 없습니다. 미지의 것이 없이는 과학지식의 발전과 진화를 보장할 수 없습니다. 사람들이 물체를 관찰할 때 관찰자가 얻는 경험은 눈알에 들어오는 빛에 의해 결정되지 않는다는 증거가 많이 있습니다. 신호는 관찰자의 망막에 나타나는 이미지에 의해서만 결정되는 것이 아닙니다. 같은 물체를 두 사람이 보아도 시각적인 느낌은 서로 다릅니다. Hansen이 말했듯이, 관찰자는 물체를 볼 때 안구가 닿는 것보다 훨씬 더 많은 것을 보게 됩니다. 관찰은 과학에 있어서 매우 중요하지만, “관찰에 대한 진술은 특정 이론의 언어로 이루어져야 합니다.” “관찰에 관한 진술은 공개 주제이며 공개 언어로 작성됩니다. 여기에는 다양한 수준의 보편성과 복잡성에 대한 이론이 포함되어 있습니다.” 이는 관찰에는 이론이 필요하다는 것을 보여줍니다. 과학은 전신으로서 이론이 필요하며, 과학적 이해는 미지의 것에 기초하지 않습니다. 기업은 비즈니스에 가장 적합한 옵션에 대한 이해가 부족한 경우가 많으며, 인공지능 컨설팅 서비스에서는 AI를 활용하여 비즈니스를 탐색하려고 합니다.
접근 방식의 분명한 차이에도 불구하고 기술(일반적으로)과 철학은 동일한 관심 대상인 사람을 공유합니다.
기술 개발의 목적은 일상생활에서 발생하는 구체적인 실제 문제를 해결하여 가까운 미래에 인류를 위한 유용성을 높이는 것입니다. 그러나 대부분의 경우 기술 개발의 범위는 그것이 해결하는 실제적이고 현재의 문제를 넘어서지 않습니다. 문제가 기술적으로 해결될 수 있다면 그렇게 할 필요가 없습니다. 기술은 항상 한 가지 목표, 즉 유용성을 추구합니다. 이는 제품의 부작용에 거의 관심을 두지 않는 순전히 도구적 접근 방식인 것 같습니다 (M. Taddeo 및 L. Floridi, "AI가 선을 위한 힘이 될 수 있는 방법", Science, 2018년 8월) .
대조적으로, 철학은 인간 존재의 현재 문제와 실제적인 측면만을 다루는 것이 아닙니다. 특정 주제에 대해 가능한 가장 광범위한 관점을 형성하기 위해 철학적 분석은 연구 대상 자체뿐만 아니라 윤리적 의미 및 인간 문제에 대한 기타 가능한 영향도 조사합니다. 이것의 일부는 가치의 출현, 발전 및 본질에 대한 연구입니다. 따라서 일반적인 입장과 시사 문제에 대한 세심한 분석과 비판을 통해 특정 가치체계의 변화를 찾아내는 것이 철학 분야의 주요 과제입니다.
간단히 말해서 철학은 일반적으로 새로운 이슈와 문제를 제기하는 반면, 기술, 특히 AI의 목적은 당연히 특정 문제와 기존 문제를 해결하는 것입니다. 이를 감안할 때, 이 두 분야의 공생은 언뜻 보면 역설적으로 보입니다.
그러나 점점 더 많은 새로운 질문을 던지고 제안된 기술 솔루션을 비판함으로써, 특히 근본적인 문제를 정확한 철학적 방식으로 조사함으로써 기술은 장기적이고 보다 상세한 솔루션을 제공할 수 있습니다. 철학은 논리적 분석, 윤리적, 도덕적 검토, 올바른 질문을 던지는 심층적인 방법론 등 이러한 예측 과정을 위한 도구를 제공합니다. 이를 관점에서 살펴보면 AI가 업무의 미래에 어떤 영향을 미칠까요?
이는 확실히 새로운 기술의 미래 지향적인 개발을 보완합니다. 개발 프로세스에서 문제와 제안된 기술 솔루션의 가능한 많은 결과를 고려할 때 향후 문제는 지속 가능한 방식으로 해결될 수 있습니다. 이 모든 것은 기술의 하위 집합인 인공 지능에 적용되며, 이제 이는 "지능형 기계, 특히 지능형 소프트웨어를 만드는 과학 및 기술" ("기계에 더 가깝습니다: AI의 기술적, 사회적 및 법적 측면") 으로 정의되어야 합니다. , 빅토리아주 정보청장실, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, Richard Nock, Benjamin Rubinstein, Margaret Jackson, 2019) .
그러나 인공지능과 철학의 연관성은 훨씬 더 광범위합니다.
인공지능과 철학의 독특한 연관성은 컴퓨터 과학자 존 매카시(John McCarthy)에 의해 이미 강조되었습니다. 철학은 일반적으로 모든 기술 과학을 보완하지만, 특수 학문으로서 인공 지능에 있어서도 중요하며 해당 분야에 대한 기본 방법론을 제공합니다.
철학자들은 AI의 기본 개념 중 일부를 개발했습니다. 예를 들면 "...지능형으로 간주되기 위해 인공물이 보유해야 하는 특징에 대한 연구" ("산업 혁명: 산업계의 4대 주요 혁명", Sentryo, 2017년 2월 23일) 또는 초등학생 합리성의 개념은 철학적 담론에서도 등장했다.
이런 맥락에서 더욱 흥미로운 점은 인공지능의 진화를 이끌고 이를 우리 삶에 통합하기 위해 철학이 필요하다는 사실이다. 철학은 사소한 기술뿐만 아니라 완전히 새롭고 탐구되지 않은 윤리적, 사회적 문제와도 관련되기 때문이다.