paint-brush
우리는 AI를 채택해야 할 도덕적 의무가 있습니까?~에 의해@corhymel
1,141 판독값
1,141 판독값

우리는 AI를 채택해야 할 도덕적 의무가 있습니까?

~에 의해 Cory Hymel8m2024/04/20
Read on Terminal Reader

너무 오래; 읽다

질문이 제기된 AI 패널의 왼쪽에서 두 번째 프랭크 첸. 크레딧 : Gigster
featured image - 우리는 AI를 채택해야 할 도덕적 의무가 있습니까?
Cory Hymel HackerNoon profile picture
0-item

5년 전, 프랭크 첸(Frank Chen)은 그 이후로 매일매일 내 마음을 사로잡는 질문을 제기했습니다. 질문은 “자율주행차가 51% 더 안전하다면, 우리는 이를 채택해야 할 도덕적 의무가 있지 않은가?”였다. 나는 지난 5년 동안 이 질문을 수없이 제기했는데, 대개 무뚝뚝한 반응이 흥미로운 논쟁으로 이어집니다. 이 질문을 그토록 위대하게 만드는 것은 칼날입니다. 99% 안전하지도 않고, 70% 안전하지도 않고, 단지 51% 안전할 뿐입니다.


맥락에 맞게 설명합니다. 미국 도로안전청(National Highway Safety Administration)은 2022년에 약 42,795명의 교통 사망자가 발생했다고 보고했습니다 . 42,795명 중 50%는 21,398명, 51%는 21,825명입니다.


이는 자율주행차가 51% 더 안전하다면 이를 사용하면 매년 427명의 생명을 구할 수 있다는 의미입니다. 이는 승객을 가득 태운 보잉 777 항공기 약 1.5대에 해당합니다.


427명의 생명을 구하는 것이 입양을 위한 도덕적 주장인가?


제가 이 질문을 공유해 온 5년 동안 그 대답은 결코 간단하지 않았습니다. 그들은 항상 "만약에"라는 질문에 사로잡혀 있습니다. 하지만 답변에 명확성이 부족하더라도 질문은 매우 중요하다고 생각합니다. 부분적으로는 우리 삶과 일의 여러 측면에서 AI 채택의 도덕적 의무에 대한 더 광범위하고 똑같이 중요한 토론을 열기 때문입니다. 결국 생명을 구할 수 있는 기술을 기피하는 것은 기술을 너무 성급하게 채택하는 것만큼이나 윤리적으로 문제가 될 수 있기 때문입니다.


AI 채택의 도덕적 의무


저는 항상 자율주행차에 대한 논쟁이 AI에 대한 더 넓은 담론을 위한 완벽한 축소판이라고 생각했습니다. 인간이 운전하는 차량보다 통계적으로 더 안전한 기술을 보유하고 있다면 도덕적 선택은 당연하지 않을까?


이걸 고려하세요: 연구 인간 운전자가 자율주행(AI 구동) 자동차보다 심각한 부상 위험을 지닌 충돌 사고율이 더 높다는 사실이 밝혀졌습니다. 구체적으로, 인간 운전자는 백만 마일당 부상(IPMM)이 0.24건, 백만 마일(FPMM)이 0.01건의 피해를 입힌 반면, 자율주행차는 IPMM이 0.06건, FPMM이 0건이었습니다.


그리고 이 수치는 단순한 통계가 아니라는 점을 기억하세요. 이는 AI 기술을 수용함으로써 구할 수 있는 실제 생명을 상징합니다.


그런데 왜 자율주행차에 멈춰야 할까요? AI가 안전성, 효율성, 정확성을 향상할 수 있는 잠재력은 의학, 공중 보건, 식품 안전, 농업, 사이버 보안, 범죄 예방, 군사 과학 등 다양한 분야에 걸쳐 있습니다. AI가 인간 의사보다 더 정확하게 질병을 진단하고, 식량 공급을 파괴하기 전에 농작물 실패를 예측하며, 데이터가 침해되기 전에 사이버 공격을 저지할 수 있다면 우리도 그러한 기술을 활용해야 할 도덕적 의무가 있지 않습니까?


물론 이것은 극적인 예이지만 논쟁은 삶과 죽음의 시나리오를 넘어 확장됩니다. 일상 생활의 질을 향상시키는 AI의 능력도 마찬가지로 매력적입니다. 일상적인 작업을 단순화하거나 정보와 서비스에 대한 접근성과 공평성을 향상함으로써 AI는 고된 일을 끝내고 일상 생활의 질을 향상시킬 수 있습니다. AI 채택에 대한 도덕적 의무는 단지 피해나 사망을 예방하는 것만이 아닙니다. 그것은 우리가 할 수 있다면 인간의 행복에 기여할 의무가 있는지 여부에 관한 것입니다.

선택과 안전의 딜레마


그렇다면 인간이 운영하는 차량(또는 인간이 주도하는 프로세스)이 AI 차량보다 덜 안전하거나 효율적이라는 것을 알고 선택합니까? 단순히 그들이 더 인간적이기 때문에?


인간이 운영하는 시스템과 AI로 강화된 대안 사이의 선택에 직면했을 때, 내 생각에는 무엇이 "인간"인지 아닌지에 대한 모호한 생각에 충실하기보다는 안전성과 효율성에 따라 결정을 내려야 한다는 것이 내 생각입니다.


AI를 수용한다는 것은 인간의 가치나 의견을 무시한다는 의미가 아닙니다. 오히려 그것은 인간이 본질적으로 우월하지 않다는 것을 인정하는 것입니다. 그리고 솔직히 특정 상황에서는 종종 상당히 열등합니다.


이제 갈퀴에서 나오지 마세요. 저는 Team Robot Overlord에 합류하지 않습니다. 저는 AI가 이미 업무에 야기하고 있는 혼란과 의심할 여지 없이 우리 쪽으로 향하고 있는 사회적 변화에 대해 많은 사람들이 느끼는 불안감을 느낍니다. 장기적으로 AI의 효율성과 삶의 질 혜택이 이러한 혼란의 영향보다 클 수 있는지 궁금합니다.


우리가 AI 채택을 꺼리는 이유 중 일부는 인지적 편견과 두려움에서 비롯됩니다. 적응력이 뛰어나기로 유명한 종인 우리 인간은 변화를 좋아하지 않습니다.


인지 편향은 우리가 AI 수용을 주저하는 데 중요한 역할을 합니다. 인지 편향은 호모 사피엔스로서의 초기 시절부터 남아 있는 심리적 패턴입니다. 그것은 우리 마음이 빠지는 습관입니다. 포식자로부터 도망칠 때 유용할 수 있지만 현대인의 인식과 판단을 확실히 왜곡하는 인지적 지름길입니다.


이 경우 이러한 편견을 인식하고 해결하는 것은 AI 채택에 대한 보다 합리적이고 윤리적인 접근 방식으로 나아가는 데 중요합니다. 다음은 AI 기술에 대한 우리의 의심, 신뢰 또는 수용에 영향을 미칠 수 있다고 생각되는 몇 가지 사항입니다.

  • 의인화 편향: 사람들은 인간의 특성을 AI나 로봇에 귀속시키는 경향이 있어 신뢰와 기대에 영향을 미칩니다. 이는 AI 시스템의 능력이나 사악한 의도의 귀속에 대한 비현실적인 가정으로 이어질 수 있습니다.

  • 가용성 휴리스틱(Availability Heuristic): 이 편견은 개인이 기억에 남거나 생생한 사건과 관련된 사건의 확률을 과대평가하도록 유도합니다. AI의 실패나 성공에 대한 선정적인 언론 보도는 과장될 수 있으며 AI 신뢰성과 안전성에 대한 인식에 불균형적으로 영향을 미칠 수 있습니다.

  • 확증 편향: 다른 사람들은 뭘 하고 있나요? 사람들은 AI에 대한 기존의 믿음이나 가설을 확인하는 방식으로 정보를 찾거나 해석할 수 있습니다. 이러한 편견은 AI 기술과 그 잠재적 이점 또는 위험에 대한 객관적인 평가를 방해할 수 있습니다.

  • FOMO: 사람들은 유익한 기술을 놓치고 싶지 않지만 그 의미에 대한 이해가 부족할 수 있습니다. 이러한 편견은 비판적 평가를 무색하게 만들고 조기 채택으로 이어질 수 있습니다. 이러한 편견은 밴드왜건 효과(예: 다른 사람이 하기 때문에 또는 영향력 있는 사람들이 하기 때문에 무엇을 하거나 믿는 경향)와 관련이 있습니다. 사람들은 단순히 그것이 대중적인 정서인 것처럼 보이기 때문에 AI 기술을 신뢰하거나 불신할 수 있습니다.


  • 현상 유지 편향: 사람들은 현재 상태를 유지하는 것을 선호하므로 잠재적인 이점이나 입증된 우월성에 관계없이 AI와 같은 새로운 것을 채택하는 것에 대한 저항으로 이어집니다. 이러한 편견은 혁신과 잠재적으로 삶을 향상시키는 기술의 채택을 늦출 수 있습니다.


  • 손실 회피: 이 편견은 동일한 가치를 지닌 것을 얻는 즐거움보다 무언가를 잃는 고통을 더 강하게 느끼게 합니다. AI의 경우 이는 일자리 상실이나 통제력 상실에 대한 두려움이 안전/효율성/편의성이라는 이점을 무색하게 한다는 것을 의미합니다.

  • 과신 편향: 무언가를 통제하거나 이해하는 능력을 과대평가하는 것입니다. AI의 경우 이는 AI와 관련된 위험을 과대평가하거나 과소평가하는 것을 의미합니다.


  • 알고리즘 혐오/신뢰: 숫자는 무섭습니다! 사람들은 알고리즘에 대해 편견을 갖는 경향이 있으며, 증거가 그렇지 않은 경우에도 인간의 의사 결정이 우월하다고 믿습니다. 반면에 일부는 AI 시스템의 오류나 편견 가능성을 무시하고 AI 결정에 대해 의심할 여지 없이 신뢰를 가질 수도 있습니다.


경제적 합리성


흥미롭지 않나요? 그러나 사실 이것은 모두 학술적인 것입니다. 우리는 결국 이 결정을 내리지 못할 수도 있습니다. 기업들은 이미 만들고 있다.

수많은 기업이 AI 통합에 앞장서고 있습니다. 주로 ROI가 윤리적 논쟁보다 더 큰 의미를 갖기 때문입니다. 가져가다 아마존이 대표적인 예인데, 자동화를 향한 획기적인 전환이 이루어졌습니다. 효율성과 경제적 이익은 유형적이고 측정 가능하며, 차가운 경화 현금 앞에서 도덕적, 사회적 비판은 갑자기 더 학문적으로 느껴집니다.


그러나 이것은 단지 냉철한 자본주의에 관한 것이 아닙니다. 그것은 생존과 적응에 관한 것입니다. 기업은 매일 기술 도입과 윤리적, ESG 책임 사이의 균형을 맞추는 과제를 안고 있습니다. AI가 고용과 인간 복지에 미치는 영향은 나중에 생각할 수 없습니다. 수천 명의 사람들에게 재정적 안정성과 직업적 안녕이 이러한 결정에 달려 있습니다. 많은 기업들이 고민하고 있는 부분입니다.


그리고 여기에서 도덕적 명령에 대한 질문이 더욱 미묘해집니다. AI가 운영을 간소화하고 비용을 절감하며 새로운 기회를 창출할 수 있다면 우리도 이러한 기술을 탐구해야 할 도덕적 책임이 있지 않을까요?


비결은 윤리적 나침반을 편리하게 유지하고 AI의 효율성을 수용하면서 생계를 부당하게 방해할 수 있는 가능성으로부터도 보호하는 것입니다.

우리는 전환기에 있습니다

어느 쪽이든 우리는 발판을 조심해야 합니다. 우리는 새로운 시대의 벼랑에 서 있고, 단 한번의 강한 추진력으로 인해 우리는 자유낙하할 수도 있습니다. AI는 더 이상 미래의 환상이 아닙니다. 그것은 우리의 일상 생활과 일에 절대적으로 포함되어 있습니다. 그것은 흥미롭고 무서운 일입니다.


우리가 직면한 가장 중요한 과제 중 하나는 접근성이나 기술 격차입니다. AI는 기술을 민주화하여 더 많은 사람들이 강력한 도구를 사용할 수 있게 만드는 잠재력을 가지고 있습니다. 그러나 현재 AI의 가능성은 이미 특정 수준의 접근 권한을 가진 사람들에게 주로 나타나고 있으므로 AI가 기존 불평등을 완화하기보다는 악화시킬 가능성도 있습니다.


조정 기간이므로 AI의 혜택이 널리 배포될 수 있도록 인내와 교육, 적극적인 조치가 필요할 것입니다. 우리는 소수의 특권층이 아닌 모든 사람이 AI의 잠재력을 발휘할 수 있도록 공평한 경쟁의 장을 마련할 수 있는 잠재력을 갖고 있습니다.



협력의 난제


좋아요, 역설적이네요. AI가 인간과 함께 최적으로 기능하려면 특정 작업에서 AI가 우리보다 우수해야 합니다. 그러나 바로 그 우월함이 인간의 역할을 대체하고 우리 필멸의 인간들 사이에 저항과 두려움을 불러일으킬 위험이 있습니다.


이 역설은 AI에 대한 힘든 "밀기-풀"을 만듭니다. 이것이 바로 우리가 도덕성에 관한 열띤 논쟁을 보고 있는 이유입니다. 나는 그 해결책이 윤리적인 방식으로 AI와 인간 협력 사이의 격차를 해소하기 위한 새로운 디자인 철학과 기술의 집합일 수 있다고 믿습니다. 아래에 나열하겠습니다. ChatGPT에 다음 사항에 대해 물어볼 가치가 있습니다.


  • 인간 중심 AI 설계(HCAI): AI 시스템이 인간의 요구와 가치를 핵심으로 개발되도록 보장합니다.

  • XAI(Explainable AI): AI 결정을 명확하게 하여 인간이 이해할 수 있고 투명하게 만듭니다.

  • 윤리적 AI 프레임워크: 인권과 가치를 존중하는 방식으로 AI 시스템의 개발 및 배포를 안내합니다.

  • 적응형/반응형 AI: 인간의 피드백을 학습하고 이에 적응하여 시너지 관계를 보장합니다.

  • 참여적 설계: AI 개발 프로세스에 최종 사용자를 참여시켜 그들의 요구와 우려 사항이 해결되도록 합니다.

  • 증강 지능(Augmented Intelligence): 인간 능력을 대체하는 것이 아니라 인간 능력을 향상시키는 AI의 역할을 강조합니다.

  • 신뢰할 수 있는 AI: 신뢰성, 안전성 및 윤리적 보증을 통해 AI 시스템에 대한 신뢰를 구축합니다.

자율주행차를 운전하려면, 아니면 자율주행차를 운전하지 말아야 할까요?


마무리하면서 입장을 말씀드리겠습니다. 저는 AI를 채택하는 것이 도덕적 의무라고 생각합니다. 내 생각에는 생명을 구하고, 삶의 질을 향상시키며, 심지어 오랜 불평등을 해결할 수 있는 잠재력은 무시하기에는 너무 중요합니다. 그러나 이것이 우리가 고려 없이 정면으로 뛰어들어야 한다는 의미는 아닙니다. 내 생각에 우리는 열정과 주의를 혼합하여 AI에 접근해야 합니다. AI의 가능성을 탐구하는 데 흥미를 유지하면서도 윤리적, 사회적, 경제적 영향을 염두에 두어야 합니다.


사려 깊은 고려, 강력한 윤리적 프레임워크, 엄격한 거버넌스는 AI의 잠재력을 책임감 있게 활용하는 열쇠입니다.


나는 아직도 그 주제에 관해 토론할 마음이 열려 있습니다. 그럼 질문을 던져보겠습니다. 여기나 내 메시지로 답장하세요. LinkedIn 스레드 그리고 내가 왜 틀렸는지, 아니면 맞는지 말해주세요. 이 복잡한 문제에 대한 여러분의 생각과 의견을 부탁드립니다.


우리는 AI가 요구하는 도덕적 진지함을 가지고 AI를 받아들일 준비가 되어 있습니까?

자율주행차를 타고 다음 번 도로 여행을 떠날 준비가 되셨나요?