paint-brush
75%의 회사가 ChatGPT 사용을 금지하고 있습니다. 무슨 일이 일어났나요?~에 의해@georgedrennan
2,232 판독값
2,232 판독값

75%의 회사가 ChatGPT 사용을 금지하고 있습니다. 무슨 일이 일어났나요?

~에 의해 George Drennan4m2023/09/25
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

ChatGPT는 작년 출시 이후 전 세계를 강타했습니다. 그러나 최근 조사에 따르면 기업의 75%가 직장에서 ChatGPT 및 기타 Generative AI 애플리케이션 금지를 구현했거나 금지를 고려하고 있는 것으로 나타났습니다. 기업은 잠재적인 사이버 보안 위험을 우려하고 있습니다. 첫 번째 대규모 ChatG PT 데이터 유출은 올해 초 발생했으며 거대 기술 기업인 삼성이 관련되었습니다.
featured image - 75%의 회사가 ChatGPT 사용을 금지하고 있습니다. 무슨 일이 일어났나요?
George Drennan HackerNoon profile picture
0-item

ChatGPT 허니문 기간이 끝났나요?


ChatGPT는 작년 출시 이후 전 세계를 강타했습니다. 그러나 최근 조사에 따르면 기업의 75% 직장에서 ChatGPT 및 기타 Generative AI 애플리케이션 금지를 구현했거나 금지를 고려하고 있습니다.


기업들이 ChatGPT에 대해 냉담한 반응을 보이는 이유는 무엇입니까?


그들이 그 능력을 의심하는 것은 아닙니다. 대신 그들은 잠재적인 사이버 보안 위험에 대해 걱정하고 있습니다.


점점 커지는 우려: 데이터 유출 및 ChatGPT

생성적 AI 도구는 모든 상호 작용에서 학습하도록 설계되었습니다. 더 많은 데이터를 제공할수록 더 똑똑해집니다. 정말 좋은 것 같죠?


그러나 데이터가 어디로 이동하는지, 누가 보는지, 어떻게 사용되는지에 대해서는 모호한 부분이 있습니다.


이러한 개인 정보 보호 문제로 인해 이탈리아 데이터 보호 당국이 일시적으로 ChatGPT 금지 4월에.


기업의 경우 ChatGPT가 사용자가 제출한 정보를 가져와서 배우고 잠재적으로 다른 사용자와의 향후 상호 작용에서 미끄러질 수 있다는 우려가 있습니다.


ChatGPT에 대한 OpenAI의 지침은 사용자 데이터를 검토하고 시스템을 개선하는 데 사용할 수 있음을 나타냅니다. 하지만 이것이 데이터 개인정보 보호에 무엇을 의미할까요?


대답은 명확하지 않으며 그것이 불안을 일으키는 원인입니다.


데이터 유출 걱정: 실제 위험은 무엇입니까?

Cyberhaven 연구 에 따르면 6월 1일까지 근무자의 10.8%가 직장에서 ChatGPT를 사용했으며 8.6%가 회사 정보를 입력했습니다. 놀라운 통계는 직원의 4.7%가 ChatGPT에 기밀 정보를 입력했다는 것입니다.


사이버헤이븐 연구 결과


그리고 ChatGPT의 작동 방식으로 인해 전통적인 보안 조치가 부족합니다. 대부분의 보안 제품은 파일이 공유되거나 업로드되지 않도록 보호하도록 설계되었습니다. 그러나 ChatGPT 사용자는 콘텐츠를 복사하여 브라우저에 붙여넣습니다.


이제 OpenAI에는 옵트아웃 옵션이 추가되었습니다. 사용자는 자신의 데이터가 추가 교육에 사용되지 않도록 요청할 수 있습니다.


그러나 옵트아웃은 기본 설정이 아닙니다. 따라서 사용자가 이를 인지하고 사전 조치를 취하지 않는 한 상호 작용을 통해 AI를 훈련할 수 있습니다.


우려는 여기서 끝나지 않습니다.


선택을 취소하더라도 귀하의 데이터는 여전히 시스템을 통과합니다. OpenAI는 사용자에게 데이터가 책임감 있게 관리되도록 보장하지만 ChatGPT는 블랙박스 역할을 한다 . 데이터가 수집된 후 시스템 내에서 데이터가 어떻게 흐르는지는 명확하지 않습니다.


뭔가 잘못될 위험도 있습니다.


2023년 3월 21일, OpenAI는 다른 사용자의 이름으로 채팅 기록 제목을 잘못 지정하는 결함으로 인해 ChatGPT를 종료했습니다 . 이러한 타이틀에 비공개 또는 민감한 세부 정보가 포함된 경우 다른 ChatGPT 사용자가 이를 볼 수도 있습니다. 이 버그는 일부 ChatGPT Plus 가입자의 개인 데이터도 노출했습니다.

삼성 사건

첫 번째 주요 ChatGPT 데이터 유출은 올해 초에 발생했으며 거대 기술 기업인 Samsung이 관련되었습니다. Bloomberg에 따르면 민감한 내부 소스 코드는 실수로 유출된 엔지니어가 ChatGPT에 업로드한 후입니다.


이와 같은 누출은 심각한 영향을 미칠 수 있습니다.


그리고 그것은 삼성뿐만이 아니었습니다. 기술 산업의 또 다른 거대 기업인 아마존(Amazon)도 나름의 우려를 갖고 있었습니다. 그 회사 식별된 인스턴스 ChatGPT의 응답은 이상하게도 Amazon의 내부 데이터와 유사했습니다.


ChatGPT에 Amazon의 독점 데이터가 있는 경우 실수로 경쟁사에 유출되는 것을 방지할 수 있는 방법은 무엇입니까?


명확한 규정이 부족함

Generative AI 도구의 급속한 발전과 채택으로 인해 규제 기관이 따라잡게 되었습니다. 책임 있는 사용에 관한 지침은 제한되어 있습니다.


그렇다면 AI로 인해 데이터 침해가 발생한 경우 도구를 사용하는 회사, 직원 또는 AI 제공업체 중 누가 책임을 지게 됩니까?


OpenAI에서는 이용약관 , 책임은 사용자에게 있습니다.

OpenAI 이용약관


이는 기업에 위험을 초래합니다. 명확한 규정이 없으면 최선의 행동 방침을 결정해야 합니다. 이것이 바로 많은 사람들이 이제 더욱 주저해지고 있는 이유입니다.


기술 리더들의 상충되는 견해

새로운 기술을 배포할 때 기업은 종종 기술 리더를 찾습니다. 기술 대기업이 새로운 혁신을 채택하면 다른 회사가 이를 따를 수 있는 청신호로 간주되는 경우가 많습니다.


따라서 Microsoft 만큼 영향력 있는 회사가 기술과 관련하여 혼합된 신호를 제공하면 업계 전반에 걸쳐 파급력이 느껴집니다.


한편, Microsoft는 Generative AI 도구 사용에 대해 의구심을 표명했습니다. 지난 1월 마이크로소프트는 직원들에게 ChatGPT와 '민감한 데이터'를 공유하지 말라고 경고했습니다.



그러나 Microsoft는 자체 버전의 기술인 Azure ChatGPT도 옹호합니다. 이 반복은 기업 사용자에게 보다 안전하고 보다 통제된 환경을 약속합니다.


이러한 움직임은 다음과 같은 질문을 제기합니다. Azure ChatGPT는 Microsoft가 광범위한 Generative AI 환경에서 지적한 위험으로부터 진정으로 면역됩니까? 아니면 기업이 Microsoft 생태계 내에 머물도록 하기 위한 전략적 조치입니까?


ChatGPT 도입의 균형

새로운 기술을 평가할 때 기업은 잠재적인 이점과 잠재적인 위험 사이에서 줄다리기를 하는 경우가 많습니다.


ChatGPT를 사용하면 기업은 관망하는 접근 방식을 채택하는 것 같습니다.


기술과 규정이 발전함에 따라 보다 안전하고 투명한 사용이 확립될 수 있기를 바랍니다.


현재로서는 ChatGPT가 약간의 코딩 도움말과 콘텐츠에 적합합니다. 그러나 나는 독점 데이터로 그것을 신뢰하지 않을 것입니다.