paint-brush
이탈리아, GDPR 우려로 인해 ChatGPT 금지~에 의해@150sec
3,110 판독값
3,110 판독값

이탈리아, GDPR 우려로 인해 ChatGPT 금지

~에 의해 150Sec3m2023/04/10
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

금요일 이탈리아 데이터 보호 당국은 OpenAI에 로컬 데이터 처리를 중단하라는 즉각적인 명령을 내렸습니다. 이번 금지 조치는 해당 기업이 유럽연합(EU)의 일반 데이터 보호 규정(GDPR)을 위반하고 있다는 우려가 커지고 있기 때문이다. 수천 명의 AI 전문가들이 정책 입안자들이 규정을 조정할 시간을 가질 때까지 해당 기술에 대한 즉각적인 중단을 촉구한 지 며칠 만에 나온 것이다.
featured image - 이탈리아, GDPR 우려로 인해 ChatGPT 금지
150Sec HackerNoon profile picture
0-item

금요일 이탈리아 데이터 보호 당국은 OpenAI에 로컬 데이터 처리를 중단하라는 즉각적인 명령을 내렸습니다 . 이번 금지 조치는 회사가 데이터를 처리하는 방식과 미성년자에 대한 통제력 부족으로 인해 유럽 연합의 일반 데이터 보호 규정(GDPR)을 위반하고 있다는 우려가 커지고 있기 때문입니다.


이탈리아가 ChatGPT의 무료 사용에 대한 첫 번째 국가일 수 있지만 AI에 대한 우려가 급속도로 커지고 있는 것은 분명합니다. 이탈리아의 금지 조치는 수천 명의 AI 전문가들이 정책 입안자들이 혁신에 맞춰 규제를 조정할 시간을 가질 때까지 그러한 기술에 대한 즉각적인 중단을 요구한 지 며칠 만에 나온 것입니다.


그러나 금지령은 그러한 AI 규정이 적어도 세계 일부 지역에는 이미 존재한다는 점을 강조합니다. 이탈리아 국회의원들은 GDPR과 시민의 개인 데이터를 보호하는 법률 덕분에 OpenAI를 금지할 법적 권한을 이미 갖고 있었습니다. 그러나 이번 금지가 AI의 미래에 어떤 의미를 갖는가?

GDPR에 따라 AI는 얼마나 합법적인가요?

유럽의 GDPR 법률은 아마도 전 세계에서 가장 엄격한 법률 중 하나일 것입니다. 상업적 이익보다 개인 데이터 보호에 중점을 두고 있기 때문입니다. 이탈리아의 ChatGPT 금지가 발표되기 전에 유럽 국회의원들은 이미 고급 AI 기술의 성장과 함께 발생하는 많은 까다로운 질문을 해결하려고 노력하고 있었습니다.


우선, 디지털 개인 데이터의 글로벌 특성으로 인해 추적하고 관리하기가 점점 더 어려워지고 있습니다.

예를 들어, ChatGPT-4는 이전에 Reddit과 같은 공개 포럼을 포함하는 인터넷에서 스크랩한 데이터를 기반으로 알고리즘을 훈련했다고 밝혔습니다. 또한 직접적으로 이름이 지정된 개인에 대해 허위 정보를 생성하는 것으로 알려져 있습니다. 잘못된 정보에 대한 명백한 우려 외에도 OpenAI와 같은 회사는 유럽인의 개인 데이터 권리와 관련된 여러 문제에 취약하게 됩니다.


또한 GDPR 지침에 따라 더 광범위하게 AI 기술과 관련하여 웜 캔이 열리게 됩니다. OpenAI에 대한 금지는 일반적으로 기계 학습 알고리즘이 기본적으로 GDPR을 위반할 수 있음을 시사합니다. 이 기술은 어느 시점에서 개인 정보를 포함할 가능성이 있는 엄청난 양의 데이터에 의존하기 때문입니다.

EU만의 문제가 아니다

고급 AI 개발을 중단하라는 공개 유예에는 기술 진보와 혁신을 옹호하는 것으로 악명 높은 유명 인사들도 포함되었습니다. 이는 유사한 데이터 사용 문제로 인해 미국 의회에 TikTok이 등장한 것과 결합됩니다.


데이터 개인 정보 보호 규정과 관련하여 유럽과 유럽의 GDPR 법률은 현재 다른 국가보다 앞서 있을 수 있지만 최근 몇 주 동안의 사건은 디지털 기술의 발전과 데이터에 대한 의존도를 면밀히 조사해야 함을 시사합니다.


기술적이든 상업적이든 다른 방식으로 데이터가 사용되는 방식은 하룻밤 사이에 대답할 수 없는 까다로운 질문이지만 Politico는 특히 GDPR 규정과 관련하여 ChatGPT 자체에 이 뜨거운 감자를 던졌습니다.


이에 대한 답변은 우리에게 생각할 거리를 많이 제공합니다. “EU는 유해하고 오해의 소지가 있는 콘텐츠를 생성할 가능성이 있다는 점을 고려하여 생성 AI 및 대규모 언어 모델을 '고위험' 기술로 지정하는 것을 고려해야 합니다. EU는 적절한 보호 장치, 모니터링 및 감독 메커니즘을 포함하여 이러한 기술의 책임 있는 개발, 배포 및 사용을 위한 프레임워크 구현을 고려해야 합니다."



이 기사는 원래 Katie Konyn이 150sec 에 게시했습니다.