paint-brush
친애하는 AI: 우리는 여전히 당신을 신뢰하지 않습니다~에 의해@TheMarkup
510 판독값
510 판독값

친애하는 AI: 우리는 여전히 당신을 신뢰하지 않습니다

~에 의해 The Markup7m2024/04/13
Read on Terminal Reader

너무 오래; 읽다

최근 몇 달 동안 수백만 명의 사람들이 AI와 챗봇에 점점 더 열광하고 있는 것 같습니다. 내 눈길을 사로잡은 특별한 이야기가 있다. 엘리자(Eliza)라는 챗봇을 사용하기 시작한 벨기에 남자였다. (그리고 여러분이 준비한 대로, 이 이야기에는 자살에 대한 언급이 포함되어 있습니다.) 겉으로 보기에 그는 사랑하는 아내, 두 자녀, 직업 등 좋은 삶을 살고 있는 것처럼 보였습니다. 그러나 그 이면에서 그는 기후 문제에 대해 점점 더 절박해졌습니다.
featured image - 친애하는 AI: 우리는 여전히 당신을 신뢰하지 않습니다
The Markup HackerNoon profile picture

최근 몇 달 동안 수백만 명의 사람들이 AI와 챗봇에 점점 더 열광하고 있는 것 같습니다. 내 눈길을 사로잡은 특별한 이야기가 있다. 엘리자(Eliza)라는 챗봇을 사용하기 시작한 벨기에 남자였다. (그리고 여러분이 준비한 대로, 이 이야기에는 자살에 대한 언급이 포함되어 있습니다.)

겉으로 보기에 그는 사랑하는 아내, 두 자녀, 직업 등 좋은 삶을 살고 있는 것처럼 보였습니다. 그러나 그 이면에서 그는 기후 문제에 대해 점점 더 절박해졌습니다.


불안감을 해소하기 위해 챗봇과 대화를 시작했다. 그의 아내는 지난 3월 말 이 사건을 처음 보도한 라 리브레 에 엘리자가 모든 질문에 답했고 시간이 지날수록 봇과 점점 더 많은 대화를 나눴다고 전했다. 벨기에 매체가 검토한 채팅 기록에 따르면, 그 남자는 엘리자와 AI가 기후 위기를 해결할 수 있다고 믿기 시작했습니다.


대화가 끝날 무렵, 남자는 엘리자가 인공 지능을 통해 지구를 돌보고 인류를 구하기로 동의하면 자신을 희생하겠다는 아이디어를 내놓았습니다. 그가 자살 충동을 표현하자 챗봇은 “우리는 천국에서 한 사람으로서 함께 살겠다”고 격려했다.


이러한 대화를 나눈 지 6주 만에 그는 자살했습니다.


그의 아내는 La Libre에 “챗봇 Eliza와의 대화가 없었다면 남편은 여전히 ​​여기에 있었을 것입니다.”라고 말했습니다.


Eliza를 개발한 회사인 Chai ResearchLa Libre에 봇을 개선하기 위해 노력하고 있으며 앞으로 플랫폼은 자살 생각을 가진 사람들에게 다음과 같은 메시지를 보낼 것이라고 말했습니다 . 주저하지 말고 도움을 구하세요.”


에테르계에서는 생성적 AI에 관해 많은 대화가 있었습니다. 그 중 일부는 매우 열정적이었고 많은 부분은 당연히 회의적이었습니다 . 사람들은 챗봇이 노동 및 저작권 문제 에 미치는 영향과 같은 더 큰 의미에 대해 우려해야 하며, 많은 기관은 챗봇과 이를 구동하는 AI의 비용 과 편견에 관심을 갖고 있습니다. 가장 인기 있는 챗봇 중 일부는 감각이 있는 존재를 모방하지 않도록 훈련되었지만 여전히 개발해야 하는가에 대한 의문이 제기됩니다.


제 이름은 Lam Thuy Vo이고 The Markup 팀에 최근 합류한 사람 중 한 명입니다. 나는 내가 도달하고 싶은 청중이자 내 이야기의 주인공으로서 그녀의 보도에서 일상적인 사람들을 중심으로 하는 기자라고 생각합니다. (저는 데이터 기술 도 가지고 있습니다.)


저는 우리와 기술의 관계에 깊은 관심을 갖고 있습니다. 저는 지난 10년 동안 소셜 웹의 인프라 에 대한 데이터를 수집하고 조사하며 온라인 커뮤니티가 어떻게 구축되고 유지되는지 이해하고 이러한 결과를 기술을 사용하는 사람들에게 전달하는 데 많은 시간을 보냈습니다. 그리고 그 시간을 통해 나는 알고리즘으로 선별된 렌즈를 통해 보고 조정되는 세상이 어떻게 현실에 대한 우리의 이해를 점점 더 왜곡시켰는지에 대해 점점 더 걱정하게 되었습니다.


하지만 이 한 사람의 이야기는 AI를 둘러싼 많은 과대광고의 바탕이 되는 듯한 감정적 끌림에 대해 정말 궁금하게 만들었습니다. 제가 이해하려고 노력한 한 가지는 챗봇에 대한 우리의 갑작스러운 광신이 우리와 이 기술의 관계에 대해 우리에게 말해 줄 수 있다는 것입니다.


일반적으로 어떤 것이 입소문이 난다면 그것은 강한 감정적 반응을 불러일으켰기 때문입니다. 대부분의 플랫폼은 극단적인 감정에 대한 데이터를 수집하고 이를 기반으로 결정을 내리도록 설계되었습니다. 그러므로 이 기술이 속인 사이의 대화에 들어가려면 뭔가가 촉발되었을 것입니다.


제공된 데이터에서 함께 패치한 단어와 신조를 반복하는 기술이 궁극적으로 자살한 두 아이의 아버지에게 어떻게 그토록 많은 신뢰를 얻을 수 있습니까?


즉, 여기서 감정적인 끌림은 무엇입니까?


AI는 단지 화제가 되었기 때문이 아니라 그것에 대해 이야기한 사람 , 즉 전혀 관심이 없었던 학생들, 해변 휴가에서 만난 동료 서퍼, 대부분의 앱과 기술을 싫어하는 지질학자 파트너 때문에 관심을 끌었습니다. , 소셜 미디어.

그래서 이 작은 뉴스레터에서 저는 왜 우리가 이러한 봇에 그토록 끌리는지 알아보겠습니다.


ChatGPT 및 기타 챗봇은 일반 사람들이 말하는 방식을 모방하는 데 능숙합니다.

본질적으로 ChatGPT와 같은 챗봇은 인터넷에서 엄청난 양의 텍스트를 수집하고 모방할 수 있는 패턴을 찾는 자연어 처리 도구라고 부르는 것입니다.


이러한 종류의 도구는 말 그대로 인터넷상의 사람들이 말하는 방식을 따라 패턴을 모델링하기 때문에 대규모 언어 모델이라고 합니다. 여기에는 기본적으로 어떤 단어가 순서대로 나올지 살펴보는 멋진 용어인 "ngram" 사용과 같은 단어 분석이 포함됩니다. 귀하는 귀하가 입력한 첫 번째 단어를 기반으로 Google이 검색어를 자동 완성하고 귀하가 이전에 검색한 수천 개의 다른 단어를 미러링하는 방식으로 이 기술이 작동하는 것을 이미 보았습니다.

출처:youtube.com

ChatGPT와 같은 챗봇은 좀 더 깊이 들어갑니다. 그들은 스타일을 복사하고 결합하는 데 매우 능숙합니다. 그러나 사람들이 말하는 방식을 흉내내는 데는 능숙하지만, 사실과 허구를 구별하는 데는 능숙 하지 않습니다 .


이것이 바로 Emily M. Bender , Timnit Gebru, Angelina McMillan-Major 및 Margaret Mitchell이 ​​3년 전 작성한 예측 보고서 에서 이러한 챗봇을 "확률론적 앵무새"라고 불렀던 이유입니다. (이 논문의 내용으로 인해 Google은 두 명의 저자인 Gebru 과 Mitchell을 강제로 쫓아낸 것으로 알려졌습니다.)

논문의 저자가 강조한 것처럼, 봇이 우리가 말하는 방식을 인식하고 지도화할 수 있다고 해서 의미를 인식하는 방법을 아는 것은 아닙니다.


챗봇은 인터넷에서 우리에게 매우 중요한 어조, 언어 및 친숙성을 모방합니다.


말과 의사 소통 방식은 ​​우리가 어떤 그룹에 속해 있고 누구를 신뢰하는지 온라인에서 사람들에게 알리는 방법의 큰 부분을 차지합니다. “눈송이”라는 단어를 조롱하는 방식으로 사용하는 것은 그 사람이 더 보수적으로 기울어져 있다는 신호일 수 있습니다. 소개에 대명사를 사용하는 것은 다른 퀴어 커뮤니티 중에서도 트랜스젠더와 성비순응자에게 동맹을 맺는다는 신호입니다. 단어와 끊임없이 진화하는 인터넷 속어는 소속감을 나타내는 방법입니다.


따라서 사람들이 ChatGPT를 의인화하고 어떤 면에서는 인간성을 테스트하는 것이 합리적입니다. 나는 ChatGPT에 연결된 Frankensteined Furby가 세계를 정복하는 것에 대해 이야기하는 것을 보는 것이 나조차도 간지럽다는 것을 인정합니다.

신용:twitter.com

프로그래머는 부분적으로 분해된 Furby 장난감에 ChatGPT를 연결했습니다.

그러나 이는 또한 ChatGPT와 같은 언어 모델의 유혹과 위험에 대한 가장 큰 도전인 것 같습니다. 인간(또는 Furby) 행동을 너무 잘 반영하여 그것이 인터넷 언어의 대규모 통계 지도에 불과하다는 사실을 잊어버리는 로봇으로 우리는 무엇을 합니까?


정보 환경을 조사한 최초의 연구자 중 한 명이자 나의 멘토인 Claire Wardle은 잘못된 정보를 폭로하는 수많은 기사와 이를 탐지하는 방법에 대한 매뉴얼을 작성하는 것이 잘못된 정보와 사람들이 믿는 것과 관련된 문제를 해결하는 데 거의 도움이 되지 않는다고 언급했습니다. 신화를 폭로하기 위해 우리가 사람들에게 얼마나 많은 도구를 제공했는지는 종종 중요하지 않습니다. 우리 커뮤니티의 다른 사람들이 생각하는 것의 영향력은 아마도 진실보다 더 중요할 것입니다.


우리가 신뢰하는 권위자 옆집 이웃의 어조를 빛의 속도로 흉내낼 수 있는 언어 모델을 갖는다는 것은 이러한 챗봇이 사람들의 BS 감지기를 훨씬 더 큰 테스트에 적용할 가능성이 있다는 것을 의미합니다.


이러한 모델은 사실과 허구의 차이를 모르기 때문에 우리에게 거짓말을 하기 쉬우며, 이미 오염되고 비참할 정도로 압도적인 정보 생태계를 더욱 오염시키고 있습니다.


이것은 이미 문제가 되었습니다. ChatGPT를 지원하는 회사인 OpenAI는 호주 시장이 뇌물 수수 혐의로 감옥에 갇혔다고 거짓 비난을 한 혐의로 고소당할 수 있습니다. 챗봇은 또한 법학 교수가 자신이 만들어낸 성추행 스캔들에 참여했다고 비난했습니다 . 위험이 낮은 시나리오에서도 동일한 경험을 할 수 있습니다.


내 동료 중 한 명인 Joel Eastwood가 ChatGPT에 The Markup이 신뢰할 수 있는 저널리즘을 생산하는지 물었을 때, 특정하고 유명한 미디어 평론가가 The Markup이 "우리 시대의 가장 중요한 저널리즘 조직 중 하나"라고 썼다고 말했습니다. 분명히 이 진술에는 어느 정도 진실성이 있지만 실제 인용은 아닙니다.


AI의 정서적 유혹은 편견과 심지어 유해한 콘텐츠까지 더욱 정상화할 수 있습니다. 인터넷이 유해하고, 인종차별적이고, 성차별적이고, 동성애혐오적이고, 기타 문제를 일으키는 콘텐츠로 가득 차 있다는 것은 누구나 다 아는 사실입니다. 이러한 유형의 콘텐츠에 대해 언어 모델을 훈련하면 콘텐츠가 역류할 가능성이 높습니다.


챗봇 기술 제작자들은 훈련 데이터에서 최악의 온라인 콘텐츠를 제거하는 충격적이고 소름끼치는 작업을 수행하도록 케냐 근로자들에게 급여를 지급했습니다. 하지만 이 기술이 공개되면서 해커들은 이미 이를 사용해 아동 성적 학대에 대한 설명을 비롯한 골치 아픈 결과를 만들어냈습니다.


이들 기술 제조사들은 부분적으로 시장 지배력을 놓고 경쟁하고 있기 때문에 최근 몇 달 동안 이러한 속도로 봇을 출시했습니다. 그러나 학자와 기술자 모두 이 기술에 대한 추진을 중단하고 이 기술이 초래할 수 있는 피해를 진정으로 고려할 것을 촉구했습니다 .


그리고 많은 대화가 정책과 기업의 책임을 중심으로 이루어지고 있지만 이러한 기술을 더 잘 이해함으로써 여러분과 저와 같은 일반 소비자가 자동화된 언어 모델과 채팅할 때 bs 감지기를 잘 조정하는 방법을 찾을 수 있기를 바랍니다.

읽어 주셔서 감사합니다. ChatGPT의 위험과 자신의 정보 섭취를 더 잘 감사하는 방법에 대해 자세히 알아보려면 아래 주제에 대해 제가 가장 좋아하는 작업을 찾아보세요.


감사합니다,


람 투이 보


보고자


마크업


작성자: Lam Thuy Vo


여기에도 게시됨


UnsplashPossessed Photography 가 찍은 사진