<편지>는 시작에 불과했습니다. AI 정치 쇼에 오신 것을 환영합니다. 팝콘을 먹거나 링에 오르는 것이 더 좋습니다.
“저번에
정부미래생명연구소 로부터 편지를 받았어요.열어서 읽어보니 똥개라고 하더군요
그들은 내가 군대든 뭐든지 원했지
내가 신경쓰는 걸 상상해봐, 난 절대 안 된다고 말했어
여기 전혀 신경 쓰지 않은 땅이 있습니다
나와 같은 형제에 대해서는 한 번도 그런 적이 없기 때문에
나는 그 일에 동의하지 않았지만 바로 그 순간에 그 생각이 떠올랐습니다.
빨판은
권위를 갖고 있었다”
Public Enemy의 Black Steel In The Hour Of Chaos 가사
Public Enemy와 오늘날 AI 상태 사이의 연관성은 즉각적으로 명확하지 않을 수 있습니다. 하지만 '정부'를 '생명의 미래 연구소'로 바꾸고, '권한'을 '권력'으로 바꾼다면, 그 가사는 오늘날 AI에서 무슨 일이 일어나고 있는지에 대한 꽤 좋은 은유가 될 수 있습니다.
트위터에서 알려지게 된 "The Letter"는 FLI( Future of Life Institute)가 편집하고 점점 더 많은 사람들이 서명한 공개 서한 입니다. 이는 "고급 AI 설계 및 개발을 위한 일련의 공유 안전 프로토콜을 개발 및 구현"하기 위해 GPT-4보다 큰 AI 모델 교육을 일시 중지할 것을 요구합니다.
FLI의 서신에는 "AI 연구 및 개발은 오늘날의 강력한 최첨단 시스템을 더욱 정확하고, 안전하고, 해석 가능하고, 투명하고, 강력하고, 정렬되고, 신뢰할 수 있고, 충실하게 만드는 데 다시 초점을 맞춰야 합니다."라고 언급되어 있습니다. “The Letter”에 대해 정당한 우려를 제기한 사람들을 포함하여 동의하지 않는 진술은 거의 없습니다.
나도 “The Letter”에 서명했어요. 제가 그랬을 때 서명자는 1,000명 미만이었습니다. FLI의 FAQ에 따르면 현재 약 50,000개가 있습니다. 나는 FLI나 FLI의 구성에 전적으로 동의하기 때문에 서명하지 않았습니다. 나 역시 위의 발언에 대해 의구심을 가지고 있으며 소위 AI 과대광고에 대해 극도로 인식하고 비판적입니다.
나는 그것이 관심을 끌고 꼭 필요한 대화를 이끌어 낼 수 있을 것이라고 기대하면서 “The Letter”에 서명했고, 실제로 그렇게 되었습니다. AI 반발이 이렇게 뜨거운 논쟁을 촉발했던 유일한 때는 2020년이었습니다. 그때 는 Google이 " 확률론적 앵무새”.
물론 AI에서는 2,5년이 평생이다. 그것은 AI가 주류로 진입하기 전인 ChatGPT 이전의 일이었습니다. 하지만 그렇다고 해서 그 문제가 오늘날 뜨거운 논쟁을 벌이고 있다고 해도 반드시 널리 이해되고 있다는 의미는 아닙니다.
“The Letter”에 대한 첫 번째 비판은 그 기원과 그것을 작성하고 서명한 사람들의 의제를 인용하며, 당연히 그렇습니다. 실제로 Future of Life Institute는 효과적인 이타주의, 장기주의 조직입니다.
간단히 말해서, 이는 오늘날 기술 사용으로 인해 발생하는 실제 문제보다 가상의 기술 유토피아적 미래에 대해 더 관심을 갖는 사람들을 의미합니다. FLI의 FAQ도 현재의 피해를 해결하려고 시도하지만 Peter Thiel과 Elon Musk가 우려 사항으로 "경제력 집중"을 언급하는 방식은 별로 설득력이 없어 보입니다.
이전에 Lontermism 내부자였던 철학자이자 역사가 Emile P. Torres는 Lontermism과 그 이데올로기 계열을 설명하기 위해 약어 TESCREAL을 만들었습니다. 지구가 파괴되는 인류를 구하기 위해 화성에 가야 한다거나 문제를 해결하려면 초고급 AI가 필요하다고 주장하는 것은 TESCREAL 사고에 대해 많은 것을 말해줍니다.
이 사람들은 당신의 최선의 이익을 진심으로 생각하지 않으며, 나는 FLI가 작성하고 Elon Musk가 공동 서명한 편지에 서명하는 것을 확실히 보지 못했습니다. 하지만 그렇게 하지 않는 것도 어렵습니다. Elon Musk 유형이 얻는 자금, 영향력 및 홍보의 양은 비평가들에게도 무시하기 어렵습니다.
적절한 사례: AI 윤리학자 Timnit Gebru이 설립한 분산 AI 연구소 인 DAIR . Gebru은 2020년 Google에서 해고된 사람 중 한 명입니다. DAIR는 Gebru이 원하는 작업을 지원하기 위해 2021년에 설립되었습니다.
DAIR는 "AI가 불가피한 것이 아니며, AI의 피해를 예방할 수 있으며, AI의 생산 및 배포에 다양한 관점과 신중한 프로세스가 포함되면 유익할 수 있다는 믿음에 뿌리를 두고 있습니다." 정말 칭찬할 만한 것 같습니다.
DAIR는 임무 수행을 위해 다수의 연구원을 고용하고 있으며 Ford Foundation, MacArthur Foundation, Kapor Center, George Soros' Open Society Foundation 및 Rockefeller Foundation으로부터 370만 달러를 모금했습니다 . 연구는 어떻게든 자금을 지원받아야 합니다. 하지만 아마도 이 자금의 출처에 대해서도 생각해 볼 가치가 있을 것입니다.
Gebru은 이 난제를 알고 있으며 "현재 큰 자선 활동을 하고 있는 거대 기술 억만장자"에 대해 이야기했습니다. 아마도 DAIR 창립자들은 칭찬할만한 목표를 향해 이러한 자금을 사용하는 것이 자금의 출처보다 더 중요할 수 있다고 믿고 있습니다. 그러나 이러한 사고방식이 DAIR에만 국한되어야 할까요?
DAIR는 ""AI 일시 중지" 편지에 대한 확률론적 앵무새 목록 작성자의 성명"을 발표했습니다 . 매우 사려 깊은 이 성명서에서 저자는 "이 편지에 서명한 컴퓨팅 전문가의 수와 이에 대한 긍정적인 언론 보도를 보고 실망했다"고 썼습니다.
나는 FLI의 편지에 서명한 전문가 중 일부를 알고 함께 일했지만 나 자신 외에는 누구에게도 말할 수 없습니다. 그러나 나는 그들에게 의심의 이익을 주는 것이 공평하다고 생각합니다.
Gary Marcus 와 같은 일부 사람들은 "The Letter"를 완전히 지지하지는 않지만 매우 중요하다고 생각하는 특정 목표를 달성하기 위해 서명했다고 말했습니다. 익숙한 것 같나요?
사람들은 서명자들의 동기에 대해 의문을 제기했으며 일부 사람들은 따라잡기 위해 현재 AI를 주도하고 있는 AI를 지연시키기를 원할 수도 있다고 주장했습니다. 예를 들어 Elon Musk는 x.ai라는 새로운 AI 회사를 설립하고 있습니다 . 그리고 OpenAI는 이제 AI 모델이 더 커지는 것은 좋은 방법이 아니라고 말합니다 .
그러나 서명한 모든 사람이 자기 이익에 따라 동기를 부여받는 것은 아닙니다. 그리고 오늘날 AI 시스템 배포로 인한 피해는 현실입니다.
근로자 착취 및 대규모 데이터 절도 억압 시스템의 재생산 과 정보 생태계에 대한 위험 ; 권력의 집중 . DAIR가 언급한 피해는 모두 매우 현실적입니다.
그 힘은 AI를 통해 이를 적극적으로 홍보하거나 무의식적으로 활성화하고 있습니다. 문제를 제기하고 인식을 제고하며 거대 기술 기업의 행진을 약화시키기 위한 연합을 구축하는 것이 실용적인 일입니다.
그것이 정치처럼 들린다면 사람들이 지적했듯이 그렇기 때문입니다. 이는 "의견, 두려움, 가치, 태도, 신념, 관점, 자원, 인센티브 및 직접적인 기이함"에 더해 돈과 권력에 관한 것임을 의미합니다.
그것이 항상 있었던 일입니다. Gebru은 외부에서 영향력 게임을 시작하기 전에 Google 내부에서 변화를 시도했기 때문에 이 게임이 낯선 사람이 아닙니다.
AI 모라토리엄에 대한 FLI의 요청은 처음은 아니지만 견인력을 얻은 것이었습니다. 실용적이려면 비판적으로라도 서명해야 했습니다. FLI 이전에 유예를 제안했음에도 불구하고 Marcus는 그렇게 했습니다. 그것은 Elon Musk 유형의 서명자나 DAIR가 FLI의 편지에서 본 "긍정적인 언론 보도"를 끌어들이지 못했습니다.
그런 일이 있었던 것은 사실입니다. 일부 매체는 항상 선정주의 카드를 사용하기를 열망하고 다른 매체는 TESCREAL에서 공개적으로 영감을 얻 습니다. 하지만 그렇다고 해서 모든 보도가 긍정적인 것은 아닙니다. 어쨌든 미디어 영향은 게임의 일부입니다.
하지만 연구는 어떻습니까? Marcus, Andrew Ng, Yann LeCun과 같은 DAIR 및 AI 리더 모두 연구에 대해 언급합니다. Ng와 LeCun은 연구가 "[AI] 시스템을 훨씬 더 쉽게 제어할 수 있게 만드는 새로운 아이디어"를 가져오는 솔루션의 일부라고 믿습니다 .
이는 주로 기술적인 성격의 문제로 귀결되는 것처럼 보이는 널리 알려진 믿음의 전형입니다. 이러한 믿음을 갖고 있다면 문제를 극복하기 위해 필요한 것은 해결책을 찾기 위한 더 많은 연구라고 믿는 것도 이치에 맞습니다.
그러나 '확률적 앵무새' 사건에서 알 수 있듯이 이는 결코 해결책이 부족했기 때문이 아닙니다. 그것은 의제, 정치, 돈, 권력에 관한 것입니다.
Marcus는 AI에 대해 가장 두려운 것은 사람이라고 말합니다. 그는 단일 문제에 초점을 맞추지 않고 가교 구축을 주장합니다. 이러한 정신에서는 연구를 통해 더 나은 AI를 구축하는 데만 집중하지 않는 것이 중요합니다. 사람들이 이에 접근할 수 있도록 보장하는 것이 중요합니다.
궁극적으로 Internet Explorer보다 더 나은 브라우저에 액세스하는 것이 브라우저 자체보다 더 중요했습니다. 90년대 브라우저 전쟁 에서도 이것이 사실이었다면 오늘날의 AI에 대해서도 뭔가를 말해 줄 수도 있습니다. 이것이 Matt Stoller가 주장하는 주장 의 핵심입니다.
열성적인 반독점주의자인 스톨러는 AI에 대한 구글과 마이크로소프트의 매력을 동전의 양면으로 본다. 스톨러는 AI가 검색 분야 지배력에 위협이 된다는 구글의 주장이 구글에 대한 독점금지 조사를 호도하려는 노력이라고 생각한다.
Stoller는 “이 환상적인 과학 지식이 소수에 의해 통제되는 것을 원하지 않는다고 국회의원들에게 말하는 것은 민주주의 사회로서 우리의 몫입니다”라고 주장합니다. 그가 빅테크에 대한 경계를 촉구하는 것은 옳다.
일부 AI 연구원과 기업가는 누구나 사용할 수 있는 데이터 세트 와 모델을 만들기 위해 노력하고 있습니다. 그것은 훌륭하지만 브라우저 비유를 명심해야 합니다. 데이터 세트와 모델을 통해 개발자는 사물을 구축할 수 있습니다. 그러나 거대 기술 기업이 이를 폐쇄하기 때문에 그러한 것들이 선반 공간을 확보하지 못한다면 별로 좋은 일을 하지 못할 것입니다.
AI 전문가가 되는 것이 도움이 됩니다. 그러나 Melanie Mitchell과 Chris Murphy 상원의원과의 대화에서 알 수 있듯이, 당신이 말하는 내용을 안다고 해서 반드시 당신의 말을 듣게 될 것이라는 의미는 아닙니다.
Mitchell은 AI의 과대 광고를 폭로하는 데 훌륭한 일을 했습니다. AI에 관해 뭔가를 할 수 있는 사람들 과 동맹을 맺으세요..그렇게 많지는 않습니다. 때로는 개입하는 것이 옳은 일이며, 거기에 도달하려면 동맹이 필요합니다.
AI 전문가이든 아니든 우리 각자가 할 수 있는 몇 가지 매우 중요한 일이 있습니다.
첫째, 전 세계 ChatGPT가 행사하고 있는 독점 권력의 본질을 이해합니다. Big Tech 시스템을 더 많이 사용할수록 우리는 이를 더 좋게 만드는 데 더 많이 기여하고 Big Tech의 힘을 더 많이 공급할 수 있습니다. 이번에는 그것에 빠지지 말자 . 점점 더 많아지고 있는 대안을 사용해 보겠습니다.
둘째, AI 정치에 참여하십시오. 상원의원에게 편지를 보내고, 서명을 받고, 거리를 행진하고, 트위터 스페이스를 열어 AI를 위한 국제 기관에 대해 논의하는 등 무엇이든 가능합니다. 하지만 뭔가를 하세요. 적어도 다른 사람들이 무엇을 하고 있는지 알아두세요. AI의 엄청난 속도로 평소대로 사업을 추진하는 것은 재앙을 불러오는 길이다.
우리는 이미 권력 규모가 빅테크에 유리하게 조작되는 상황에 처해 있습니다. 아무것도 하지 않는다는 것은 억압자의 편을 선택하는 불의의 상황에서 중립을 유지하는 것을 의미합니다. 우리는 이미 권력 규모가 빅테크에 유리하게 조작되는 상황에 처해 있습니다.
이 작품의 버전이 여기에 나타납니다.