paint-brush
AI가 문제가 아니라 빅테크가 문제다~에 의해@theantieconomist
977 판독값
977 판독값

AI가 문제가 아니라 빅테크가 문제다

~에 의해 The Anti-Economist8m2023/11/17
Read on Terminal Reader

너무 오래; 읽다

거대 기술 기업의 역사와 열악한 데이터 보안을 살펴보면 AI 확산의 실제 위험은 무엇입니까? AI 자체보다 대기업의 데이터 활용과 관련이 더 많은 것 같다.
featured image - AI가 문제가 아니라 빅테크가 문제다
The Anti-Economist HackerNoon profile picture


인공 지능은 우리가 믿게 된 것만큼 무서운 걸까요, 아니면 비윤리적인 데이터 사용 기록을 가지고 있는 거대 기술 기업들이 다른 데이터를 사용했던 방식으로 계속해서 AI를 사용할 것입니까? 가능한 한 주머니에 줄을 서십시오.


인공 지능 에 대해 가장 기초적인 이해를 가진 사람이라도 인공 지능의 강점은 데이터를 이해하는 능력에 있다는 것을 이해하고 있으며, 언어 모델이나 AI가 특정 목적에 맞게 더 똑똑해지거나 훈련되길 원한다면 핵심 요소는 데이터입니다. AI와 빅테크가 교차를 시작하는 곳이 바로 여기입니다. 거대 기술 기업은 AI 모델을 훈련하고 개발하는 데 사용할 수 있는 클라우드 데이터를 가장 많이 보유하고 있을 것으로 예상되기 때문입니다.


2022년부터 Google , MicrosoftAmazon은 모두 수십억 달러를 투자하고 Chat GPT의 첫 번째 버전이 출시된 직후 우리 시대의 가장 진보된 AI 개발 회사와 강력한 관계를 구축했습니다.


이러한 거래 내에서도 직원들은 빅 테크 분야의 AI 사용과 관련된 윤리적 딜레마에 빠지는 경우가 많습니다. Dario Amodei는 Microsoft의 개입에 대한 안전 및 윤리적 우려로 인해 Open AI를 떠났습니다. 얼마 지나지 않아 그는 다른 사악한 이복 자매에게 의지하기 위해 Anthropic을 설립하고 약 $를 가져갔습니다. 12억 5천만 달러 아마존으로부터의 투자와20억 달러 Google에서.


거대 기술 기업의 파란만장한 과거(그리고 현재), 개인 정보 보호 윤리, 인공 지능에 대한 지원을 고려할 때 현시점에서는 문제가 AI 개발에 있는 것이 아니라 우리가 직면한 개인 정보 보호 문제에 있다고 걱정할 가능성이 높습니다. 다들 너무 익숙해요.


거대 기술 기업, 개인 정보 보호 문제, AI 언어 모델의 기능, 정부 규제 간의 관계를 조사하면서 악의적인 의도를 가진 개체가 AI를 사용할 때 AI의 높은 잠재력과 관련된 위험을 고려하는 것이 중요합니다.



AI 혁명

대부분의 사람들이 알고 있는 언어 학습 모델(LLM) 또는 인공 지능은 학습된 정보를 기반으로 결과를 생성하기 위해 자율적으로 작동할 수 있는 여러 알고리즘의 대규모 조합입니다.


AI는 대부분의 사람들이 생각하는 것만큼 새로운 도구는 아닙니다. 많은 AI 도구가 우리 일상생활에서 사용되고 있습니다. 자동차 지도부터 소셜 미디어 광고, Netflix 추천까지 모두 AI 도구를 사용하여 우리의 일상과 습관을 학습하고 우리가 참여할 가능성이 있는 것에 대해 추천하고 추측합니다.


올바르게 사용하면 인공 지능은 일상 생활에서 기술과 상호 작용하는 방식을 변화시킬 수 있는 힘을 가지고 있습니다. 이는 우리의 삶을 더욱 편리하게 만들 수 있을 뿐만 아니라 대부분의 사람들처럼 쉽게 현실과 상호 작용할 수 없는 사람들의 접근성을 변화시킬 수도 있습니다. 예를 들어 시각 장애가 있는 사람은 다음을 수행할 수 있습니다. AI를 사용하다 더 나은 탐색을 위해 주변 세계에 대해 설명합니다.


AI는 이미 전자상거래, 의료 기술, 금융, 농업, 교육 등 다양한 프로세스를 간소화하는 데 사용되고 있습니다. 사람들의 일을 더 쉽게 만듭니다. 인간으로서 이미 수행하고 있는 자동화된 작업을 수행할 수 있다는 것은 많은 사람들의 작업 중 큰 부분을 차지하는 일상적인 작업에 너무 많은 시간을 소비할 필요가 없으며 인간의 독창성이 가장 중요한 영역에 집중할 수 있음을 의미합니다.


예를 들어, AI를 사용하면 브로드웨이 공사와 시내 교통 정체를 고려하여 오늘 출근하기 더 좋은 통근 경로를 더 쉽게 결정할 수 있습니다. 즉, 출근하기 전에 10분 더 잠을 더 잘 수 있고 커피를 만들 수 있습니다. , 그러면 내 하루가 훨씬 더 좋아지고 직장에서 생산성이 더 높아질 것입니다.


기억해야 할 중요한 점은 기능을 제어하기 위해 칩에만 의존하는 다른 도구와 달리 AI는 많은 양의 정보에 대해 훈련을 받은 다음 특정 프롬프트를 제공할 때 이를 학습하고 기억할 수 있다는 것입니다.


Google, Amazon 및 Microsoft는 AI 모델을 교육하는 데 활용할 수 있고 활용하고 있는 최대 규모의 인간 데이터 저장소(아마도 귀하의 데이터 포함)를 보유하고 있기 때문에 AI 개발과 거대 기술 간의 관계가 시작되는 곳이 대체로 여기입니다.


우리 데이터에 대해 가장 신뢰도가 낮다는 것을 입증한 기업이 더욱 스마트한 AI 개발을 주도하고 있다는 사실은 다소 놀랍습니다.


말할 필요도 없이 그것은 재난의 비결처럼 보입니다. 그리고 우리 소비자들은 잃을 것이 가장 많습니다.


인공달의 어두운 면

기술계에 종사하는 우리 중 많은 사람들은 생성 AI 도구가 미래에 어떤 영향을 미칠지에 대해 조심스럽게 낙관하고 있으며 큰 잠재력을 지닌 AI 기술을 사용하여 영감을 주는 혁신을 계속해서 보고 있습니다.


오해하지 마십시오. AI는 우리 세계에서 매우 좋은 것일 수 있으며 현재 일상 생활에서 많은 사람들을 돕는 중요한 기술을 만드는 데 사용되고 있습니다. 이러한 강력한 기술을 우리 일상생활에 도입할 때 언급되는 내용입니다.


이익 중심인 Big Tech Giants는 소비자의 데이터 개인 정보 보호를 존중할 책임이 있습니다. 지속적으로 무시 ) 특히 데이터를 사용하여 교육하는 AI의 경우 언어 모델을 교육하는 데 사용하는 데이터 종류를 잘 인식하는 것이 매우 중요합니다. 어떤 사람들은 실제로 자신의 Facebook 사진, Instagram 스토리, 위치 기록, 금융 데이터 등이 AI 모델을 훈련하는 데 사용되는 것을 원하지 않습니다. 의료, 생체 인식, 금융 및 위치 데이터와 같은 보다 민감한 데이터도 마찬가지입니다.


AI 히스테리아는 잘못된 위치에 있나요?

우리는 확실히 이해 AI의 능력을 둘러싼 히스테리 속에 AI가 일자리를 훔치고, 지각력을 얻고, 결국 인류를 추월할 것이라는 걱정이 있지만, 현실적으로 우리가 두려워해야 할 것은 구글이 이익을 극대화하기 위해 우리의 데이터를 사용하는 것입니다. 이것은 그들이 해왔던 일이지만, 삶의 모든 측면을 이해하고 기록하며 잘못된 사람들이 접근할 수 있는 AI를 다루기 시작하면 우리 데이터를 우리에게 불리하게 활용할 가능성은 더욱 심각해집니다.


민감한/개인 데이터에 대해 훈련되는 AI 모델의 위험

Amazon Alexa를 사용하여 수집된 데이터가 영장 없이 법 집행 기관에 요청되어 제공되었으며 범죄 수사에 사용되었다고 사람들이 신고하는 사건이 이미 있었습니다.


개인 데이터가 정치적 의제를 추진하고 잠재적으로 잘못된 정보를 퍼뜨리는 데 사용되는 사건도 여러 번 있었습니다. 대규모 기술 기업이 수집한 데이터가 잘못된 사람의 손에 들어가는 수많은 데이터 유출로 인해 범죄자는 수백만 명의 개인 정보에 접근할 수 있게 되었습니다.


개인 데이터를 활용해 AI 모델을 훈련시키면 데이터 입력 및 교환 과정에서 무단 접근으로 인해 개인정보 침해 문제가 발생할 수 있는 위험이 있다. AI 모델을 훈련하는 데 데이터가 사용되는 긴 프로세스 동안 면밀히 조사하고 주의해서 처리하지 않으면 사람들이 개인 데이터에 규제되지 않은 접근 권한을 가지게 되어 데이터가 여러 번 주고받을 수 있습니다. 그렇게 큰 볼륨의 복잡한 정보를 처리할 때 민감한 정보의 무단 공개로 이어지는 보안 조치의 실패로 인해 데이터 침해가 발생할 가능성은 거의 없습니다.


다양한 데이터 세트에 대한 AI 훈련의 중요성은 AI 모델이 받은 훈련을 기반으로 편견과 차별을 가질 수 있는 매우 실제적이고 이전에 경험된 확률 때문입니다. 예를 들어 얼굴 인식을 사용하면 AI 모델을 사용하여 특정 매장에서 누가 물건을 훔치는지 감지하고 3년 동안 보안을 제공할 수 있습니다. 해당 보안 영상에 등장하는 사람들이 주로 특정 인종 출신이라면 AI 모델은 특정 사람들 풀 외부에 있는 사람이 절도할 가능성이 더 높다고 예측하기 시작할 수 있습니다. 훈련 데이터가 다양하지 않고 대표적이지 않은 경우 AI 모델은 학습을 다양한 집단에 정확하게 일반화하는 데 어려움을 겪을 수 있습니다.


AI 모델이 일련의 인구 통계에 대해서만 훈련된다면 데이터의 편향에 따라 언어 모델 자체에 잠재적인 편향이 발생할 위험이 커집니다. 여기서 문제는 비교적 간단합니다. 특정 그룹이 더 많은 개인 데이터를 사용할 수 있다면 AI 내 편견을 어떻게 방지할 수 있습니까? 이는 데이터 세트 내에서 제대로 표현되지 않은 커뮤니티에 대한 배제적인 결과를 초래할 수 있습니다.


AI 모델 훈련에 사용하기 위해 데이터가 수집된다는 사실이 사용자에게 공개되는지 여부에 대한 동의와 투명성이 부족하다는 요인도 있습니다. 끊임없이 정보의 홍수 속에서 선택의 마비를 경험하는 요즘, 91% 의 사람들은 특정 애플리케이션에 가입할 때 이용 약관을 읽지 않으므로 소비자가 실제로 자신의 데이터 권리와 관련하여 가입하는 내용을 정확히 알고 있는지에 대한 의문이 제기됩니다. 이는 사용자 신뢰를 약화시키는 데 큰 역할을 할 수 있습니다. 연구 이미 놀랍게도 낮은 신뢰도를 발견했으며, 42%의 사람들이 거대 기술 기업에 대한 신뢰도가 낮거나 현재 낮습니다.


이러한 거대 기술 기업조차도 대규모 데이터 침해로 이어지는 사이버 공격에 취약하다는 것은 매우 실질적인 위협입니다. 최근 역사 철저히 입증되었으며, AI 훈련을 위해 대량의 데이터 사용 및 전송이 증가함에 따라 이러한 위험은 더욱 높아질 뿐입니다. Facebook과 같은 거대 기술 기업은 이러한 사이버 공격 및 사용자 데이터 유출로 긴장된 역사를 가지고 있으며, 소비자는 거대 기술 기업이 이미 존재하는 것을 처리할 수조차 없을 때 또 다른 취약점 지점을 도입하는 것이 현명한지 궁금해하게 됩니다. 그들의 접시.


AI 기술의 확산과 함께 앞으로 우리가 볼 수 있는 또 다른 잠재적인 문제는 익명화된 데이터의 재식별입니다. 이는 개인을 위험에 빠뜨릴 수 있는 민감한 정보를 다시 공개할 수 있습니다.


마무리 생각

많은 사람들이 인공 지능과 인공 지능이 노동력에 가져올 수 있는 것에 대해 많은 의구심을 갖고 있다는 것은 일리가 있습니다. (물론 어차피 아무 것도 바뀌지 않을 것 같지만) 저는 우리의 자연스러운 인간 본능이 새로운 것에 대해 회의적이라고 생각합니다. , 우리는 문제가 항상 여기에 있었을 수도 있다는 사실을 잊어버립니다.


그것은 전적으로 일반 근로자의 잘못이 아닙니다. 이 수십억 달러 규모의 기업은 아마도 우리가 그들을 미워하지 않도록 하기 위해 상당한 노력을 기울였을 것입니다. 그러나 사람들이 악마화하는 것을 보는 것은 여전히 매우 흥미롭습니다. 치는 도구이지 그것을 휘두르는 손이 아니다. AI에 대한 이해 여부에 관계없이 이러한 거대 기술 기업의 데이터 보호 실패에 대해 여전히 알고 계실 것입니다. 따라서 향후 5년 내에 AI가 비윤리적으로 사용되는 것에 대한 논란을 보게 되는 것은 놀라운 일이 아닙니다. 모든 단계를 추적하고 그것으로 돈을 버세요.



Unsplash의 Adi Goldstein 의 리드 이미지