paint-brush
2000명 이상의 연구원이 AI의 미래를 예측합니다~에 의해@adrien-book
669 판독값
669 판독값

2000명 이상의 연구원이 AI의 미래를 예측합니다

~에 의해 Adrien Book4m2024/04/17
Read on Terminal Reader

너무 오래; 읽다

AI Impacts가 대학과 공동으로 진행한 최근 설문 조사에서는 AI의 미래 이정표와 잠재적 위험에 대한 전문가 예측이 강조되었습니다. 전문가들은 2028년까지 AI가 크게 발전할 것으로 예상하지만 AI 해석 가능성, 사회적 영향, 실존적 위험에 대한 우려를 표명합니다. 더 나은 미래를 위한 AI의 기회와 과제를 탐색하기 위해 증가된 AI 안전 연구, 글로벌 규정 및 책임 있는 AI 개발에 대한 요구가 강조됩니다.
featured image - 2000명 이상의 연구원이 AI의 미래를 예측합니다
Adrien Book HackerNoon profile picture
0-item
1-item


인공지능 의 발전 속도는 자연스러운 최고점에 이르렀습니다. GPT-4 , Gemini , Claude 등과 같은 도구와 해당 제작자는 모두 의료, 교육에서 금융, 엔터테인먼트에 이르기까지 사회의 모든 측면을 곧 바꿀 수 있다고 주장합니다. 이러한 급속한 발전은 AI의 궤적에 대해 더욱 중요한 질문을 제기합니다. 즉, 기술의 이점은 물론이고 ( 주로! ) 그것이 우리 모두에게 제기하는 잠재적인 위험입니다.


이러한 상황에서는 전문가의 관점을 듣고, 이해하고, 귀를 기울이는 것이 중요합니다. “ AI의 미래에 대한 수천 명의 AI 저자 라는 제목의 최근 설문 조사는 AI의 잠재력에 대한 전문가들의 의견을 측정하기 위한 가장 광범위한 노력을 나타냅니다. Katja Grace 와 그녀의 AI Impacts 팀이 본 대학 및 옥스퍼드 대학의 연구원들과 협력하여 실시한 이 연구에서는 2,778명의 연구원을 대상으로 AI 발전과 사회적 영향에 대한 예측을 구했습니다. 접촉한 모든 사람들은 이전에 최고 수준의 AI 장소에서 동료 검토 논문을 작성한 적이 있었습니다.


AI 연구의 미래에 대한 주요 시사점

간단히 말해서, 이 설문조사는 기술의 미래와 사회적 영향에 대한 AI 연구자들 사이의 기대와 우려의 복잡성과 폭이 매우 크다는 점을 강조합니다.


  • 전문가들은 AI가 이르면 2028년에 중요한 이정표를 달성할 것이라고 예측합니다. 예를 들어 전체 결제 처리 사이트를 처음부터 코딩하고 Taylor Swift와 같은 히트 아티스트가 실제 노래와 구별할 수 없는 새로운 노래를 쓰는 등입니다 .


  • 또한 대다수의 참가자는 최고의 AI 시스템이 향후 20년 내에 매우 주목할만한 기능을 달성할 가능성이 높다고 믿고 있습니다. 여기에는 " 목표 달성을 위한 예상치 못한 방법 " 찾기(82.3%), " 대부분의 주제에 대해 인간 전문가처럼 말하기"(81.4%), " 인간에게 놀라운 방식으로 " 자주 행동하는 것(69.1%)이 포함됩니다.


  • 더욱이 합의에 따르면 2047년까지 AI가 모든 작업에서 인간을 ' 우월 '할 가능성이 50%로 제시되는데, 이는 1년 전 예측 보다 13년 앞선 예측입니다 .


  • 모든 인간 직업이 " 완전히 자동화 "될 확률은 현재 2037년에는 10%, 2116년에는 50%에 이를 것으로 예상됩니다( 2022년 조사 의 2164년 대비).


AI는 언제 다음 작업을 '수행'할 수 있나요?


  • 설문 조사는 AI 결정의 해석 가능성에 대한 회의적인 태도를 나타냅니다. 응답자 중 20%만이 2028년까지 사용자가 " AI 시스템 선택의 진정한 이유를 이해할 수 있을 것"이라고 생각했습니다. AI는 (악명 높은) 블랙박스 이며, 이러한 우려는 AI 투명성에 대한 실제적이고 지속적인 문제를 반영합니다. 이는 AI 의사결정을 이해하는 것이 신뢰와 책임을 위해 중요한 중요한 애플리케이션(금융, 의료…)과 특히 관련이 있습니다.


  • 이 연구는 또한 AI의 잠재적인 부정적인 영향에 대한 " 중요한 " 우려를 강조합니다. 허위 정보의 확산, 여론 조작, AI의 권위주의적 사용은 놀랄 것도 없이 상당한 우려를 불러일으킵니다. 오늘날 이러한 위험을 완화하기 위한 사전 조치에 대한 요구는 거의 없으며 이것이 문제입니다 .


잠재적인 시나리오에 대해 우려할 만한 수준이 가장 높은 수준부터 가장 낮은 수준까지 구성되어 있습니다.


  • 높은 수준의 기계 지능이 장기적으로 미치는 영향에 대해서는 다양한 의견이 있으며, 응답자의 주목할만한 부분은 인간 멸종을 포함하여 극도로 좋은 결과와 극도로 나쁜 결과 모두에 0이 아닌 확률이 있다고 답했습니다. " 우리는 다음에 무슨 일이 일어날지 전혀 모른다 "는 것은 과학자입니다. 하지만… 응답자의 38%에서 51% 사이는 적어도 10%의 확률로 첨단 AI가 인류 멸종만큼 나쁜 결과를 가져올 가능성을 제시했는데 , 이는 우리가 계속 지켜봐야 할 것으로 보입니다.


  • 마지막으로, AI 발전이 더 빠르거나 느린 것이 인류의 미래에 더 좋을지에 대해서는 의견 차이가 있습니다. 그러나 대다수의 응답자는 AI의 실존적 위험을 해결하고 안전한 개발 및 배포를 보장하는 것의 중요성에 대한 공감대가 커지고 있음을 반영하여 현재보다 AI 안전 연구의 우선순위를 더 높게 옹호합니다.


우리는 그 정보로 무엇을 합니까?

앞으로 나아갈 길은 매우 분명합니다. 전 세계 정부는 AI 안전 연구에 대한 자금을 늘리고 AI 시스템이 현재와 미래의 인간 가치 및 이익에 부합하도록 보장하기 위한 강력한 메커니즘을 개발해야 합니다.


영국 정부는 최근 책임 있는 새로운 AI 생태계 구축을 위한 3천만 파운드를 포함해 다양한 인공 지능 관련 프로젝트에 5천만 파운드 이상의 자금 지원을 발표했습니다 . 아이디어는 AI 기능의 책임감 있고 신뢰할 수 있는 적용을 보장하는 도구와 프로그램을 구축하는 것입니다.


한편 바이든-해리스 행정부는 2024년 초 업계 리더, 학계, 시민사회 등 200명이 넘는 AI 이해관계자가 모이는 미국 AI 안전연구소 컨소시엄 (AISIC) 구성을 발표했다. 이 컨소시엄은 레드팀 구성, 역량 평가, 위험 관리 및 기타 중요한 안전 조치에 대한 지침을 개발하여 안전하고 신뢰할 수 있는 AI의 개발 및 배포를 지원하는 것을 목표로 합니다.


이것은 시작이지만 모두 너무 국가적인 것입니다.


오늘날 정부는 자신의 뒷마당만 볼 수는 없습니다. 또한 우리는 AI 기술의 윤리적 개발과 배포를 안내하고 투명성과 책임성을 보장하기 위해 국제 규정을 구현해야 합니다. 여기에는 AI 연구자, 윤리학자, 정책 입안자 간의 학제간 및 국제적 협력을 육성하는 것이 포함됩니다. 기존 인권 프레임워크를 강화하고 개선하기 위해 다음과 같은 조치가 시행되는 것을 보면 세상이 더 안전하다고 느낄 것입니다.


  • 글로벌 AI 안전 프레임워크
  • 국제 AI 안전 정상회담
  • 글로벌 AI 윤리 및 안전 연구 기금.


결론을 내리기엔 너무 이르다

어쩌면 운명론에 빠지기에는 조금 이른 것 같습니다. 설문조사는 귀중한 통찰력을 제공하지만 참가자의 자체 선택으로 인한 잠재적 편견과 기술 발전을 정확하게 예측해야 하는 ( 당연한! ) 과제를 포함하여 한계가 있습니다. 추가 연구는 관점의 다양성을 확장하고 특정 부문에서 AI 개발의 의미를 탐구하는 것을 목표로 해야 합니다.


결국, 예측의 정확성에 관계없이 우리에게는 말 이상의 것이 필요합니다. AI는 전례 없는 기회와 중요한 도전의 원천입니다. 연구자, 정책 입안자, 대중 간의 열린 대화를 통해 우리는 AI의 위험으로부터 우리를 보호하고 모두를 위한 더 나은 미래를 향해 나아갈 수 있는 규칙을 만들어야 합니다 .


세상은 아주 넓고 우리는 아주 작습니다. 행운을 빕니다.