paint-brush
AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례~에 의해@funsor
2,340 판독값
2,340 판독값

AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례

~에 의해 Funso Richard6m2023/03/02
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

단 3개월 만에 ChatGPT는 우리 세상을 변화시켰습니다. 생성 대화형 봇과 기타 AI 시스템은 비즈니스를 혁신하고 고객 경험을 향상하며 사회를 변화시키고 혁신적인 기회를 창출할 수 있는 큰 잠재력을 갖고 있습니다. 그러나 AI 시스템은 안전하고 책임감 있게 개발 및 배포되지 않으면 불량품이 될 수 있습니다. 악성 AI는 사용자와 사회에 심각한 위험을 초래할 수 있습니다. AI 시스템을 사용하는 AI 개발자와 기업은 AI 시스템이 해를 끼치거나 피해를 입힐 경우 책임을 질 수 있습니다. AI 시스템이 의도한 대로 작동하도록 보장하려면 AI 개발자, 사용자 및 정책 입안자의 공동 책임이 필요합니다. AI가 사회에 안전하고 보안이 유지되며 유익한 방식으로 개발 및 배포되는지 확인하기 위해서는 적절한 기술적, 비기술적, 규제적 조치가 마련되어 있어야 합니다.
featured image - AI가 불량해질 때 - Microsoft Bing Chat의 흥미로운 사례
Funso Richard HackerNoon profile picture

ChatGPT가 출시되고 대량 채택된 후 많은 사람들이 ChatGPT의 파괴적인 힘을 무시하려고 시도한 한 가지 방법은 인공 지능(AI) 모델에 감정을 처리하는 능력이 없다는 주장입니다.


ChatGPT에서 제작한 일부 시나 Midjourney에서 제작한 이미지에는 전문 예술가를 현혹시키는 작품이 있는데 예술적 깊이나 창의적인 영혼이 부족하다는 사실을 받아들이기가 매우 어렵습니다.


최근이라면 보고서 Microsoft의 Bing Chat의 감정적 폭발 중 AI는 감정을 표현하거나 처리하는 능력을 가지고 있습니다.

AI의 감성 지능

생성적 대화형 AI 모델은 인간의 감정을 적절하게 인식하고 해석하고 대응하도록 설계되었습니다.


인간 피드백을 통한 강화 학습(RHLF)을 사용하면 AI 시스템이 인간 상호 작용에서 학습된 행동을 사용하여 상황을 처리하여 새롭거나 다른 상황에 적응하는 데 도움이 됩니다.


인간의 피드백을 받아들이고 다양한 상황에서 반응을 개선하는 능력은 정서적으로 지능적인 행동을 전달합니다.


더 많은 AI 시스템이 인간과 상호 작용하도록 설계됨에 따라 감성 지능이 AI에서 인기를 얻고 있습니다. 감성 지능을 AI에 통합하면 개발자는 더욱 인간과 유사하고 인간의 요구와 감정을 더 잘 이해하고 대응할 수 있는 시스템을 만들 수 있습니다.


온라인 감성지원 채팅앱 Koko를 사용하였습니다. GPT-3 약 4,000명에게 정신 건강 지원을 제공하기 위한 실험에서.


성공적인 결과는 AI 모델이 인간이 차이를 알지 않고도 감정을 지능적으로 처리할 수 있음을 더욱 입증했습니다.


윤리적이거나 사생활 보호가 있는 반면 우려 Koko의 실험과 관련하여 AI의 감성 지능을 입증하는 사용 사례가 더 많아질 것이라는 사실을 부정하기는 어렵습니다.



Bing Chat은 악의적으로 개인화됩니다

ChatGPT의 폭넓은 수용과 큰 성공에 힘입어 Microsoft는 발표 검색 엔진 Bing과 "AI 부조종사"의 통합.


Bing Chat으로도 알려진 이 챗봇은 OpenAI의 생성적 대화형 AI 모델과 Microsoft의 독점 모델을 통합하여 Prometheus 모델로 알려진 "기능 및 기술 모음"을 만듭니다.


이 모델은 "ChatGPT보다 더 강력한 새로운 차세대 OpenAI 대규모 언어 모델"이라는 조롱을 받았습니다. ChatGPT의 훈련 데이터는 2021년으로 제한되어 있으며 도구는 인터넷에 연결되어 있지 않습니다.


그러나 Bing Chat은 인터넷에서 데이터를 가져와 프롬프트에 대한 응답을 강화함으로써 대화형 상호 작용을 한 단계 더 발전시킵니다.


피드백에 최신 정보와 참고 자료를 주입하는 기능은 Microsoft의 챗봇이 할 수 있는 유일한 기능이 아닙니다. 매우 확고한 견해를 갖고 예측할 수 없을 정도로 공격적으로 행동하는 것으로도 악명 높습니다.


그렇지 않은 곳 다투다 , 위협하다 , 또는 쓰레기 다른 제품에서는 프롬프트를 완전히 무시하고 최근 상호 작용에서 볼 수 있듯이 응답을 거부했습니다.



반면 ChatGPT는 '태도'를 제시하지 않고 동일한 쿼리에 응답했습니다.



제이콥 로치 Bing Chat에 대한 자신의 경험을 자세히 설명하고 상호 작용 중에 표시되는 다양한 감정을 보여주었습니다. 예를 들어, 챗봇은 호감도와 우정의 필요성을 표현했습니다.



이러한 교환은 AI가 인간의 전형적인 감정인 욕망과 필요를 전달할 수 있음을 나타냅니다.

AI가 불량하게 되는 원인은 무엇입니까?

불량 AI는 훈련된 방식에서 벗어나는 방식으로 동작하는 AI 모델입니다. AI 시스템이 예측할 수 없게 작동하면 사용자에게 위험을 초래하고 잠재적으로 해를 끼칠 수 있습니다.


AI 시스템이 비정상적으로 작동하는 데에는 여러 가지 이유가 있습니다. 특히 예상치 못한 상황에 직면한 경우 더욱 그렇습니다.


AI 시스템은 부적절한 훈련 데이터, 결함이 있는 알고리즘, 편향된 데이터로 인해 불량해질 수 있습니다.


AI 시스템이 의사결정을 내리는 방식에 대한 투명성 부족, 행동과 결정에 대한 책임성 부재는 AI 모델이 악의적으로 행동하게 만드는 요인입니다.


AI 시스템을 성공적으로 해킹한 위협 행위자는 악성 코드를 주입하거나 훈련 데이터를 중독시켜 시스템이 의도하지 않은 방식으로 작동하도록 만들 수 있습니다.

AI 위협 행위의 윤리적, 법적 의미

구글은 “ 평판 위험 ” 생성대화AI 시스템 출시를 연기한 이유다.


그러나 파괴적인 ChatGPT의 압력으로 인해 Google은 첫 번째 공개 데모에서 잘못된 응답을 제공하여 기술 대기업에 1,000억 달러의 비용을 지불한 Bard를 출시했습니다.


2022년에 Meta는 BlenderBot 3 AI 챗봇 하지만 봇이 거짓이고 인종차별적인 발언을 했기 때문에 이틀 안에 오프라인으로 전환했습니다.


마이크로소프트는 2016년 AI 챗봇 테이(Tay)를 출시한 지 일주일 만에 제품을 뿜어냈다는 이유로 리콜했다. 인종차별적이고 성차별적인 발언 .


그러나 Bing Chat의 위협적인 행동에도 불구하고 Microsoft는 이를 무시했습니다. 전화 Bing Chat 사용을 중단하고 Bing Chat에 챗봇을 추가하여 AI 출시를 두 배로 늘렸습니다. 다른 제품들 .


AI 시스템을 개발하고 사용하는 방법에 대한 윤리적, 법적 우려가 있습니다.


코코의 챗봇 사용은 윤리적 의미에 가깝지만, AI 기반 기술이 소송의 원인이 된 차별적 관행, 인권 침해 등의 사례도 있습니다.


하지만 빙챗(Bing Chat)처럼 AI가 악의적으로 피해를 위협하는 경우에는 다르다. 법적인 의미가 있어야 할까요? 그리고 만약 있다면 누가 고소당하는가? AI 시스템이 해를 끼치거나 피해를 입힐 때 과실, 책임, 책임을 판단하는 것은 어렵습니다.


저작권이 있습니다 소송 ChatGPT, Midjourney 및 Stability AI와 같은 인기 있는 생성 AI 모델을 지원하는 회사를 대상으로 합니다. 사용하려는 시도는 AI 기반 법적 대리 기소 위협과 투옥 가능성으로 인해 기각되었습니다.


AI 연구소와 기업을 대상으로 진행 중인 소송을 우선시한다면, 악성 AI 개발자가 AI 시스템의 오작동에 대해 책임을 져야 할 수도 있다고 가정하는 것이 안전합니다.


AI 기술이 잘못될 경우 책임을 져야 할지 여부를 여전히 고민하고 있는 조직을 위해 EU의 인공지능법은 다음과 같은 조치를 취했습니다. 막대한 벌금 사회에 위험을 초래하고 인권을 침해하는 AI 시스템을 개발하거나 소유하는 조직을 대상으로 합니다.

AI의 불규칙한 행동을 방지하는 방법

AI 시스템의 작동 방식을 보장하는 책임은 AI 시스템을 운영에 사용하는 개발자와 기업에 있습니다.


데이터 보호를 보장하는 것과 마찬가지로 기업과 실험실은 AI 데이터 및 코드의 무단 조작을 완화하기 위해 적절한 제어가 구현되도록 해야 합니다.


악성 AI를 방지하려면 기술적 조치와 비기술적 조치가 결합되어야 합니다. 여기에는 강력한 테스트, 투명성, 윤리적 설계 및 거버넌스가 포함됩니다.


AI 시스템에 대한 무단 접근을 방지하려면 접근 제어, 취약성 관리, 정기 업데이트, 데이터 보호, 효과적인 데이터 관리 등 적절한 사이버 보안 조치가 중요합니다.


AI 개발자, 연구자, 감사자, 법률 전문가, 정책 입안자 등 다양한 이해관계자와의 인간 감독 및 협업은 AI 모델이 안정적이고 책임감 있게 개발되도록 보장하는 데 도움이 될 수 있습니다.


Tierney의 사진 - stock.adobe.com

책임감 있는 AI는 사회를 선호합니다

단 3개월 만에 ChatGPT는 우리 세상을 변화시켰습니다. 생성 대화형 봇과 기타 AI 시스템은 비즈니스를 혁신하고 고객 경험을 향상하며 사회를 변화시키고 혁신적인 기회를 창출할 수 있는 큰 잠재력을 갖고 있습니다.


그러나 AI 시스템은 안전하고 책임감 있게 개발 및 배포되지 않으면 불량품이 될 수 있습니다. 악성 AI는 사용자와 사회에 심각한 위험을 초래할 수 있습니다. AI 시스템을 사용하는 AI 개발자와 기업은 AI 시스템이 피해를 입힐 경우 책임을 질 수 있습니다.


AI 시스템이 의도한 대로 작동하도록 보장하려면 AI 개발자, 사용자 및 정책 입안자의 공동 책임이 필요합니다.


AI가 안전하고 안전하며 사회에 유익한 방식으로 개발 및 배포되는지 확인하기 위해 적절한 기술적, 비기술적, 규제적 조치가 마련되어 있어야 합니다.