1969년 인기 공상 과학 소설 2001: 스페이스 오디세이(2001: A Space Odyssey )에 등장하는 HAL-9000(경험적으로 프로그래밍된 알고리즘 컴퓨터)로 알려진 지각 있는 인공 지능(AI)은 간단한 지시로 프로그래밍된 컴퓨터가 어떻게 동료애와 안내를 제공할 수 있는지에 대한 소름끼치는 이야기입니다. , 그리고 지원이 현재의 'Hey Google'과 크게 다르지 않습니다.
책에서 HAL로 표기된 획기적인 기술은 자연어 처리, 얼굴 인식, 음성 합성이 가능하다. AI가 현재 존재하는 이유는 개인화된 치료를 통한 의료 개선, 위성 이미지를 사용한 자연재해 대응 지원, 단순히 정치 캠페인 후보 질문에 답하기 위한 자연어 챗봇 등입니다. 모든 좋은 것들.
책의 팬들은 AI가 자신의 존재를 보호하려는 인간의 동기에 도전하면서 더 나쁜 쪽으로 방향을 틀었다는 것을 기억할 것입니다. 이 이야기는 인간과 기술 사이에 갈등이 발생한 후 제작자와 AI 사이의 관계가 어떻게 빠르게 절망과 절망에 빠질 수 있는지를 계속해서 보여줍니다. 이 책은 많은 공상 과학 소설에서 인기 있는 이야기인 자기 인식과 자율성을 갖고 궁극적으로 인류를 파멸로 이끄는 AI 시스템을 만드는 것의 윤리적 의미를 폭로합니다.
50년이 지난 지금, HAL은 Siri를 침팬지처럼, Google Assistant를 영광스러운 동물처럼 보이게 만듭니다.
이것은 AI의 미래에 대한 Arthur C. Clarke의 놀랍도록 정확한 예측에 대한 서평이 아니라, AI가 현재 귀하와 귀하의 가족을 어떻게 표적으로 삼아 귀하의 정치적 입장, 나이, 인종, 인종 등에 따라 귀하의 결정에 영향을 미칠 수 있는지에 대한 게시물입니다. 그리고 성적 취향. 인구통계학적 타겟팅은 새로운 것이 아닙니다. 인터넷이 등장하기 전에는 출구조사, 콜드콜, 종이 기반 설문조사를 사용해 커뮤니티를 프로파일링했습니다. 그 후 그들은 직접 메일을 받고 전화를 걸어 후보에게 투표하도록 설득했습니다. 이러한 기술 중 일부는 높은 수준의 분산과 부정확성을 고려하여 드물지만 오늘날에도 여전히 사용됩니다.
이것이 바로 AI 인구통계학적 타겟팅이 정확성을 크게 향상시킬 수 있는 부분입니다. AI는 기계 학습 알고리즘을 사용하여 대량의 사용자 데이터를 분석하여 인간이 실패한 패턴을 찾을 수 있습니다. 일반적으로 모델이 학습된 데이터가 많을수록 예측이 더 정확해질 수 있습니다.
귀하의 모든 Facebook 게시물, LinkedIn 기사, Reddit AMA, 그리고 지난 주에 귀하가 보낸 Twitter의 호언장담까지 이러한 AI 모델을 통해 수집할 수 있습니다. 이는 끔찍해 보일 수 있지만 데이터가 어떻게 규제되는지에 따라 다릅니다. 한편으로 AI는 이전에는 불가능했던 일을 할 수 있습니다. 즉, 개인화된 정보를 제공하여 유권자 참여를 강화할 뿐만 아니라 유권자 그룹이 흔들릴 가능성이 더 높은 캠페인 최적화 기술을 제공하여 자원 할당에 도움을 줍니다. 그룹의 우선순위를 다르게 지정할 수 있습니다. 다른 한편으로, AI는 어린 마음을 세뇌하고, 짧은 주의 집중 시간을 이용하고,
인공지능은 혁신적입니다. 이는 의심할 여지 없이 우리가 기술과 작업하고 상호 작용하는 방식을 엄청난 규모로 변화시킬 것입니다.
현재까지의 상황은 다음과 같습니다.
아마도 iPhone 출시는 화재 발견만큼 혁명적이지는 않았지만 그림은 이해하실 것입니다.
오늘날 대부분의 정치 캠페인은 쿠키나 컴퓨터의 픽셀을 사용하여 리타겟팅을 활용합니다. 그들은 당신이 이미 소유하고 있는 제품에 대한 광고를 표적으로 삼아 당신을 표적으로 삼는 것처럼 웹에서 당신을 따라다닙니다. 이것은 인공 지능이 아닙니다. 이건 그냥 멍청한 쿠키야. 궁극적으로 이 쿠키는 귀하의 검색 기록을 기반으로 광고를 추적하고 대상을 변경합니다.
일반적으로 이는 2016년에 수행되었습니다.
이 돈은 다 잘 썼나요? 이러한 방식으로 개인을 타겟팅하면 의도한 그룹에 도달합니까? 아니면 광고 지출의 대부분이 봇, 가짜 계정 및 의도하지 않은 청중의 심연에 빠지나요? 볼티모어 대학교에서 실시한 연구에 따르면 광고 지출의 최소 20%가 다음과 같은 기술을 사용하는 봇, 부적격 유권자 및 기타 공격자에게 사용되는 것으로 나타났습니다.
동의하지 않는 한 사용자의 장치에 추적기와 쿠키를 배치하는 것에 대한 정책이 있다는 점은 흥미롭습니다. 당신은 웹 전체에 계속해서 나타나는 귀찮은 표시줄, 즉 서둘러 "수락"을 누르기 전에 종종 읽지 못하는 표시줄을 알고 있을 것입니다. 유럽인들에게 감사할 수 있습니다. AI가 요구하는 것이 바로 규제일 수도 있지만, 우리에게 꼭 필요한 것은 바로 유럽연합일 수도 있습니다. 그들의 엄격한 규제 프레임워크는 전 세계가 AI 모델이 설명 가능한 AI를 통해 데이터를 수집하고 정보를 전파하는 방법에 대한 윤리적 사용 및 동의를 제어하는 AI 정책을 의무화하도록 강요할 수 있으므로 이에 대한 신뢰와 검증 가능성이 높아집니다.
다음 동의 표시줄을 고려하세요.
아직 눈치채지 못했다면, 이는 현재 거의 존재하지 않는 AI 안전에 필요할 수 있는 잠재적인 규정을 조롱하려는 시도였습니다. 위의 내용이 가까운 웹사이트에 나타날 것으로 예상됩니다. Borg 참조를 발견하면 브라우니가 포인트를 줍니다.
지역 사회 봉사 활동, 방문 조사, 지역 기업과의 참여를 통해 경선에서 승리하는 데 사용된 정당은 메시지를 전달하는 데 투지가 필요했으며 이러한 정당을 대표하는 사람들은 정당 지도자의 학사를 통해 바로 확인했으며 가장 중요한 것은 , 수집한 데이터를 바탕으로 스스로 결정을 내렸고, 캠페인 메시지는 후보자의 입에서 생성된 텍스트를 사용하여 인간이 주도했습니다.
정치 캠페인에서 AI의 미래는 현재 규제되지 않은 상태에서 경계해야 할 것일 수 있습니다. 좋은 전통적인 경제 정책과 정직한 캠페인으로 승리하는 대신, 가장 큰 컴퓨팅 능력과 가장 큰 광고 예산을 결합한 정당이 경쟁에서 승리할 것입니다.
최근에는 미국 공화당의 주요 정당인 공화당전국위원회(RNC)가 사용한 사례가 있다.
3년 전만 해도 AI는 선거 캠페인에 실제로 활용되지 않았습니다. 매우 사실적인 비디오를 만들기 위해 소프트웨어 디자이너나 비디오 편집 전문가가 될 필요는 없습니다. 우리는 이미지의 작은 부분을 포토샵으로 만드는 것 이상으로 기본적으로 허공에서 완전히 새로운 이미지를 생성합니다.
— Darrell West, Brookings Institution 기술 혁신 센터
질문에 답하기 위해 AI가 인구 통계에 성공적으로 도달했습니까? 글쎄요, RNC의 경우에는 그렇습니다. 민주당을 포함한 많은 유권자들이 그 비디오가 진짜라고 믿었던 종말 비디오에 많은 관심이 집중되었습니다. 그것이 윤리적인가요? 아마도 그렇지 않을 것입니다. 기존 편견을 악화시키고 고정관념을 강화하는 것은 정치 과정의 공정성과 평등에 부정적인 결과를 가져옵니다. 합법적이었나요? 뭐, 그건 해석에 달려있습니다. FCC에 따르면,
정치인들은 수년간 플랫폼을 마케팅하기 위해 기술을 활용해 왔습니다. 2008년 오바마부터”
정치에서 AI의 미래는 어떤 집단의 사람들이 당신의 정당에 동요할 것인지, 어떤 유형의 콘텐츠가 그들을 동요시킬 것인지 예측하는 것입니다. 이는 이미 이루어지고 있으며 향후 민주당 선거에서 상당한 시간을 절약해 줄 것입니다. AI가 도움이 되는 또 다른 방법은 일반적인 비용보다 훨씬 적은 비용으로 기증자를 신속하게 찾을 수 있는 능력입니다. 이는 기존 기증자 데이터를 학습하는 지도 학습 유형인 회귀 기술을 사용하여 달성할 수 있습니다. 귀하의 지역 정치인은 귀하가 멋진 모금 행사에 귀하를 초대할 가치가 있는지, 기부 가능성 및 대략적인 금액을 이제 알게 될 것입니다.
AI의 발전은 불가피하며, AI 안전 분야에서 연구가 나오는 한 선의의 힘으로 계속 활용될 것입니다. 사용자 컴퓨터에서 수집되는 식별 가능한 데이터의 양을 제한하는 것은 규제상의 장애물 중 하나입니다. 이 글을 읽으면서 원격 측정 데이터(
“아는 것이 힘이다”라는 속담처럼, 귀하의 데이터 덕분에 정치 캠페인은 귀하의 행동과 선호도에 대한 통찰력을 얻기 위해 그 힘을 활용하고 있습니다. 앞서 살펴보았듯이 이제 캠페인 담당자는 잠재적인 유권자를 정밀하게 타겟팅하고 메시지를 더욱 복잡하게 개인화하며 캠페인 후원자의 거주지를 정확히 찾아낼 수 있습니다. 이는 AI 빙산의 일각에 불과하다.
AI의 미래는 빠르게 진화하고 있다. 지난 3년 동안 AI는 인지 능력과 전략적 사고를 측정하는 마음 이론(Theory of Mind)을 개발했습니다. 과학자들은 인간이나 동물이 사회적 상호작용에서 자의식과 도덕성을 가지고 있는지 측정하기 위해 이 테스트를 사용합니다. 이와 동일한 테스트가 GPT에도 적용되었으며 결과는 놀라웠습니다. 2022년 11월에 실시된 마지막 테스트에서는 GPT 3.5가 9세 어린이의 전략적 수준에 도달했다는 결론을 내렸습니다. 인구통계학적 타겟팅에 있어 이는 무엇을 의미하나요? 글쎄, 대통령이 인사를 위해 전화한다면 아마도 AI-Joe Biden이 될 수도 있습니다.
즉각적인 반응에 엄지손가락을 올리거나 내리게 하는 멋진 방법인 RLHF( Reinforcement Learning with Human Feedback )를 통해 AI가 향상됨에 따라 AI의 다음 반복은 인공일반지능 (AGI)이 될 수 있습니다. 이론적으로 개입 없이 자율적으로 모든 작업을 수행할 수 있는 가상의 HAL 유사 에이전트입니다. AGI로의 이러한 발전이 세계에 어떤 영향을 미칠지는 현재 알려지지 않았지만, 악명 높은 GPT 뒤에 있는 회사인 OpenAI를 포함한 많은 사람들이
AI가 인구통계학적 타겟팅, 가상 비서를 위한 자연어 처리, 일기 예보, 의료 등에 사용되더라도 개선해야 할 부분이 많이 있습니다. AI는 아직 초기 단계이므로 규제는 빠른 반복 속도와 보조를 맞춰야 합니다. Satya Nadela가 말했듯이 우리는 아직 AI 개발의 초기 단계에 있습니다.
ChatGPT3 출시로 자전거에서 증기기관으로 발전했습니다.
— Satya Nadela, Microsoft CEO — 2023년 5월 빌드 컨퍼런스
최근 빌드 컨퍼런스에서 Microsoft 의 주요 관심사인 장기 안전에 대한 개선이 필요합니다. “
또한 사용자가 머신러닝 알고리즘의 결과를 신뢰할 수 있도록 하는 프로세스인 XAI( Explainable Artificial Intelligence )를 통해 신뢰가 강화되어야 합니다. ChatGPT가 사실이라고 믿는 것이 실제로는 사실이 아닐 수도 있으며, 소비자로서 귀하는 알고리즘의 결과가 어떻게 나왔는지 확인할 수 있어야 합니다. 딥 페이크 정치 비디오에는 비디오가 어떻게 생성되었는지, 어떤 데이터가 사실인지 허구인지에 대한 작은 글씨가 포함될 수 있습니다. 일반 대중이 안전하게 사용할 수 있는 보다 투명하고 신뢰할 수 있는 AI 시스템을 만들기 위해서는 많은 노력이 필요합니다.
두려워할 필요는 없지만 교육을 받고 경계해야 하며, 위험 신호를 주의하고, 작은 글씨를 읽고, AI 결과가 어떻게 생성되는지 알아야 합니다. 미성년자를 보호하고 그러한 기술의 함정과 부정확성에 대해 교육하십시오.
선전은 실제처럼 보이고 실제처럼 느껴지지만 완전히 AI로 생성된 것을 포함하여 다양한 형태로 나타날 수 있다는 점을 알아두세요. 인간이 주도하는 마지막 선거가 시작되었으며, 당신은 표적이 될 것입니다.
처음에 그들은 당신을 무시하고, 그 다음에는 당신을 비웃고, 그 다음에는 당신과 싸우고, 그 다음에는 당신이 승리합니다.
– 익명이지만 HAL-9000에 의해 작성되었을 가능성이 높습니다.
원래 여기에 게시되었습니다.