paint-brush
선거에서의 GenAI: 캠페인 재편, 윤리적 우려 제기~에 의해@thetechpanda
227 판독값

선거에서의 GenAI: 캠페인 재편, 윤리적 우려 제기

~에 의해 The Tech Panda6m2024/05/10
Read on Terminal Reader

너무 오래; 읽다

생성적 AI는 개인화된 캠페인을 통해 선거에 혁명을 일으키고 있지만 허위 정보에 대한 우려도 제기하고 있습니다. 정치에서 AI의 역할이 빠르게 진화하고 전 세계적으로 민주적 절차에 영향을 미치기 때문에 윤리적 토론과 규제 노력은 매우 중요합니다.
featured image - 선거에서의 GenAI: 캠페인 재편, 윤리적 우려 제기
The Tech Panda HackerNoon profile picture

2024년은 1월 방글라데시를 시작으로 12월 가나까지 전 세계에서 선거가 치러지면서 무려 20억 명이 투표하는 해가 된다. 인간 행동과 산업의 모든 측면이 데이트, 교육, 창의성, 고객 서비스, 소셜 미디어를 포함하는 생성형 AI(AI)의 영향을 받기 때문에 선거가 어디서 개최되든 Gen이 빠질 수는 없습니다. 일체 포함.


Gen AI는 캠페인이 실행되고, 정보가 전파되며, 유권자에게 영향을 미치는 방식을 재편하고 있습니다. 예를 들어, 지난 12월 공개 집회 개최가 금지된 당의 수감된 파키스탄 전 총리 임란 칸(Imran Khan)은 AI가 생성한 오디오 클립을 사용하여 가상 집회에 연설했습니다. 연설은 칸이 감옥에서 승인한 서면 버전에서 생성되었습니다.


이 기술은 억압에 직면한 사람들에게 목소리를 주었습니다. 야당 지도자들이 종종 투옥되거나 추방되거나 사망하는 불행을 겪는 벨로루시에서 야당은 영향을 두려워하지 않고 자유롭게 말할 수 있는 OpenAI의 ChatGPT를 사용하여 구축된 가상 후보자인 AI 봇 Yas Gaspadar를 내놓았습니다.


그러나 설득력 있는 메시지 작성부터 특정 인구통계 타겟팅까지 모든 것이 이 기술을 적용해도 잘 되지 않습니다. 그 결과 전 세계 정치 분석가와 정책 입안자들은 흥분과 우려를 동시에 느끼게 됩니다.


2024년 CrowdStrike 글로벌 위협 보고서 에 따르면 Generative AI의 활용은 2024년에 예정되어 있습니다. 보고서는 2024년에 40회 이상의 민주 선거가 예정되어 있어 국민 국가와 전자 범죄의 반대자들이 선거 과정을 방해하거나 유권자 의견을 흔들 수 있는 수많은 기회를 갖게 될 것이라고 예측합니다. 중국, 러시아, 이란의 국가 행위자들은 지역 갈등과 세계 선거를 배경으로 혼란을 심기 위해 잘못된 정보나 허위 정보 작전을 수행할 가능성이 높습니다.

맞춤형 캠페인

생성 AI가 선거에 미치는 가장 중요한 영향 중 하나는 전례 없는 규모로 개인화된 캠페인을 촉진하는 능력입니다. AI 알고리즘은 방대한 유권자 정보 데이터 세트를 분석하여 고도로 개인화된 메시지, 광고 및 홍보 전략을 생성할 수 있습니다. 이 접근 방식을 사용하면 정치 캠페인에서 인구통계, 관심사, 과거 행동을 기반으로 개인을 세밀하게 타겟팅하여 홍보 활동을 최대한 활용할 수 있습니다.


정치적인 스타벅스 컵은 지난 3월 소셜 미디어에서 큰 화제를 모았습니다. 멕시코 시민 단체인 Sociedad Civil de México가 AI로 생성한 이미지를 X에 게시했을 때 #Xochitl2024라는 문구와 해시태그 #StarbucksQueremosTazaXG( #스타벅스WeWantACupXG). 멕시코의 야당 대선 후보 Xóchitl Gálvez는 자신의 X 추종자들에게 “카페 신 미에도”(두려움 없는 커피)를 주문해 달라고 요청했습니다. 사용자들은 곧 AI가 생성한 이미지를 공유하고 트렌드를 따라잡았습니다. 나중에 스타벅스는 디자인이 커피 브랜드에서 나온 것이 아니라고 밝혔습니다 .


이는 시각적 정치를 수행하는 완전히 새로운 방식의 변곡점에 있으며, 이는 아마도 우리가 정치 캠페인 중에 멀티미디어 인공물을 소비하는 방식을 근본적으로 변화시킬 것입니다.

Joyojeet Pal, 미시간 대학교 부교수


인도에서는 상황이 공식화되었다고 Aljazeera는 말합니다 . 지난 2월 인도민족회의(INC)가 나렌드라 모디 총리를 패러디한 인스타그램 영상이 150만 회 이상의 조회수를 기록했다. 바로 같은 날 BJP의 공식 핸들은 AI를 사용하여 사망한 애국 가수 마헨드라 카푸어의 목소리를 복제하여 총리의 업적을 노래하는 영상을 업로드했습니다.


미시간 대학의 조요지트 팔(Joyojeet Pal) 부교수는 “이것은 시각적 정치를 수행하는 완전히 새로운 방식의 변곡점에 있으며 아마도 우리가 정치 캠페인 중에 멀티미디어 인공물을 소비하는 방식을 근본적으로 바꿀 것입니다.”라고 말했습니다.

허위 정보 및 잘못된 정보

그러나 생성적 AI의 확산은 허위 정보와 잘못된 정보의 확산에 대한 우려도 낳고 있습니다. 설득력 있게 인간과 유사한 텍스트를 생성할 수 있는 능력을 갖춘 악의적인 행위자는 AI를 활용하여 허위 서술을 생성 및 유포하고, 불화를 심고, 여론을 조작할 수 있습니다. AI가 생성한 잘못된 정보에 맞서 싸우는 과제는 전 세계적으로 민주적 절차의 무결성에 심각한 위협이 됩니다.


인도네시아에서는 당선인이 부통령이 정부 혜택 수혜자들을 모욕하는 모습이 담긴 조작된 동영상이 페이스북에 올라왔습니다. 미국에서는 조 바이든 대통령이 유권자들에게 집에 머물 것을 요청하는 인공지능 자동녹음전화를 시청자들이 보았습니다.


지난 2월, 영국의 싱크탱크인 전략대화연구소(ISD)는 미국에 잘못된 정보를 퍼뜨리기 위해 AI가 생성한 이미지를 공유하는 캠페인인 중국 정부가 운영하는 '스패무플라주'라고 불리는 것을 발견했습니다 . 올해 선거.

선거가 많은 올해에는 딥페이크 동영상이 만연해졌습니다. 파키스탄 , 대만 , 방글라데시 등 여러 국가에서는 이러한 동영상이 유권자들에게 잘못된 정보를 유포하는 사건을 목격했습니다.

윤리적 및 규제적 과제

선거에서 생성적 AI의 등장으로 인해 윤리적 의미와 규제 감독의 필요성을 둘러싼 논쟁이 촉발되었습니다. 투명성, 책임성, 민주적 규범 보호에 관한 질문은 정책 입안자와 기술 전문가 간의 토론의 중심이 되었습니다.


모든 국가는 자국의 문화를 보호하면서 경제적 잠재력을 활용하기 위해 자체 AI 인프라를 보유해야 합니다.

엔비디아 CEO 젠슨 황


Nvidia CEO Jensen Huang이 말했듯 이, 모든 국가는 자국의 문화를 보호하면서 경제적 잠재력을 활용하기 위해 자체 AI 인프라를 보유해야 합니다. 정치적 캠페인을 위해 AI의 잠재력을 활용하는 동시에 부정적인 결과를 완화하는 것 사이에서 균형을 맞추는 것은 이해관계자에게 중요한 과제로 남아 있습니다.


유럽연합(EU)은 지난 3월 AI법을 제정 하며 공식적인 첫 걸음을 내디뎠다. 법에 따라 국민의 기본권에 큰 위험을 초래하는 이용 사례는 제한됩니다. “허용할 수 없는 위험”을 초래하는 AI도 금지 대상이 됩니다. 여기에는 AI 시스템이 "행동을 왜곡하고 정보에 근거한 의사 결정을 손상시키기 위해 잠재의식, 조작 또는 기만적 기술"을 배포하거나 취약한 사람들을 이용하는 사용 사례가 포함됩니다.


인도에서는 전자 및 IT부 장관 Rajeev Chandrashekhar가 AI 규제 프레임워크가 올해 6~7월에 논의 될 것이라고 밝혔습니다.


기술 회사들 역시 AI 생성 콘텐츠로 인한 피해를 억제하기 위해 노력하고 있습니다.


C2PA라는 오픈 소스 인터넷 프로토콜은 암호화를 사용하여 콘텐츠 출처에 대한 세부 정보를 인코딩합니다. 이는 콘텐츠가 어디서 왔는지, 누가 또는 무엇을 생성했는지 등의 정보를 우리가 사용할 수 있음을 의미합니다. Google, Microsoft, Meta와 같은 거대 기술 기업은 이미 이 프로토콜의 일부라고 발표했습니다 .


Gen AI의 사용이 선거 정치에서 계속됨에 따라 그 영향은 앞으로 더욱 강화될 것입니다. AI 기술의 발전과 알고리즘의 정교함 증가는 정치 캠페인과 유권자 참여의 역학을 계속해서 변화시킬 것입니다. 이렇게 빠르게 변화하는 환경을 헤쳐나가기 위해 정책 입안자, 선거 당국, 시민 사회는 협력하여 민주적 절차의 무결성을 보호하는 강력한 규제 프레임워크와 윤리적 지침을 확립해야 합니다.

결국 우리는 AI를 얼마나 알고 있을까?

Gen AI, 특히 GPT(Generative Pre-trained Transformer)와 같은 언어 모델은 의심할 여지 없이 정치적 내러티브를 형성하고 있습니다. 이러한 모델은 인간과 유사한 언어를 모방하고 연설부터 소셜 미디어 게시물에 이르기까지 다양한 콘텐츠를 생성하여 방대한 양의 텍스트를 대량으로 생성할 수 있습니다. 특정 유권자 집단의 공감을 불러일으키는 맞춤형 메시지를 작성하고 주요 문제에 대한 여론에 효과적으로 영향을 미치면서 이 기술은 캠페인 활동가의 손에 큰 힘을 부여했습니다.


그러나 사람들이 자신이 보는 것을 이해하는지, 아니면 맹목적으로 믿는지 물어보는 것이 중요합니다. 나렌드라 모디(Narendra Modi) 총리는 딥페이크에 대한 우려를 표명 하고 언론에 Gen AI의 위험에 대해 대중을 교육할 것을 촉구했습니다.


Ipsos 여론 조사 데이터 에 따르면 개인이 AI를 이해하는 방식에는 지연이 있으며 이러한 관찰은 전 세계적으로 나타납니다. 31개국을 대상으로 한 설문조사에서 평균적으로 약 70%가 AI에 대해 잘 이해하고 있다고 생각하지만, AI를 사용하는 제품과 서비스를 언급할 수 있는 사람은 50%에 불과합니다. 예를 들어 인도에서는 이 수치가 64%입니다. 또한 흥미롭게도 신흥 시장의 인구는 AI 기술에 대한 신뢰가 더 높습니다. 게다가 그들은 AI의 단점보다는 장점을 보는 경향이 있습니다.


생성적 AI의 부상은 선거에서 경쟁하고 승리하는 방식에 엄청난 변화를 의미합니다. AI는 개인화된 캠페인과 유권자 참여를 위한 전례 없는 기회를 제공하는 동시에 허위 정보, 개인 정보 보호 및 민주적 책임 측면에서 중요한 과제를 제기합니다. 사회가 이 새로운 현실에 적응함에 따라, 선거 과정에서 AI를 책임감 있게 배치하는 것은 전 세계적으로 민주적 거버넌스의 무결성과 적법성을 보존하는 데 매우 중요할 것입니다.



나반위타 사츠데프, 편집자, The Tech Panda