챗봇이 계속 전투를 벌이면서 엉망인 응답으로 인해 문제가 발생하고 있습니다. 챗봇의 진화는 의심의 여지가 없습니다. 하지만 가장 좋은 사람은 누구일까요? 아직 아무도 없을 수도 있습니다.
LLM과 챗봇은 작년부터 인터넷을 지배해 왔으며 Microsoft가 지원하는 Open AI가 ChatGPT를 출시하면서 선두를 달리고 있습니다. ChatGPT는 출시 두 달 만인 1월에 월간 활성 사용자 수 1억 명을 달성하여 역사상 가장 빠르게 성장하는 소비자 애플리케이션이 되었습니다.
챗봇이 쿼리에 응답할 때 극도로 인간적이 될 때 인간의 편견이 포함되어 있다는 사실에 우리는 왜 놀랄까요? 결국, 모든 응답에 대한 챗봇의 소스는 인간으로부터 축적된 엄청난 양의 악취나는 데이터 풀입니다.
마이크로소프트 공동 창업자인 빌 게이츠는 독일 경제 일간지 Handelsblatt와의 인터뷰에서 ChatGPT가 인터넷의 발명만큼 중요하다고 말했습니다 . 최근 Microsoft의 CTO인 Kevin Scott은 SF 책을 집필하는 데 도움이 되도록 설계된 GPT-3를 사용하여 직접 구축한 실험 시스템에 대해 이야기했습니다 .
대기업뿐만 아니라 중소기업도 최고의 챗봇을 소유하기 위해 서두르고 있습니다. 모든 것을 알고 있는 챗봇을 소유하려는 광적인 집착이 산업과 지역을 휩쓸고 있습니다.
마이크로소프트는 2019년 10억 달러 투자로 시작된 관계인 ChatGPT 제조사 OpenAI에 '수십억 달러 투자' 를 해왔습니다 . OpenAI의 인공 지능 시스템을 구동하는 Microsoft의 슈퍼컴퓨터입니다. 지난 2월, Microsoft는 회의 단순화를 목표로 ChatGPT를 지원하는 프리미엄 Teams 메시징 서비스를 출시했습니다 .
이 싸움은 어디에서 끝날 것인가? 마침내 완벽한 챗봇을 갖게 될까요? 아니면 인터넷이라는 놀이터에서 점점 더 장난스러워질 것인가?
Google, Microsoft 및 현재 Baidu가 이에 참여하고 있지만 다른 사람들, 특히 이미 대규모 언어 모델 기능을 구축한 사람들이 경쟁에 참여하는 것은 시간 문제일 뿐입니다. 여기에는 Amazon, Huawei, AI21 Labs, LG 인공지능 연구소, NVIDIA 등이 포함됩니다.
Google은 Bard를 출시하여 비참한 결과를 초래했습니다. 중국 기술 기업 바이두(Baidu)는 올해 3월까지 대형 언어 모델 ERNIE 3.0을 기반으로 구축된 어니봇(Ernie Bot)을 발표했습니다.
Google의 전 인공지능 윤리학자인 Alex Hanna는 이러한 챗봇을 '헛소리 생성기'라고 부릅니다. 그녀는 Analytics India Magazine과의 인터뷰에서 “이 기술의 출시가 자금 제공자 계층(VC)에게 인상적인 것으로 입증되었고 그 안에 많은 돈이 있기 때문에 거대 기술 기업은 현재 언어 모델에 너무 집중하고 있습니다.” 라고 말했습니다 .
하지만 이 싸움은 어디에서 끝날 것인가? 마침내 완벽한 챗봇을 갖게 될까요? 아니면 인터넷이라는 놀이터에서 점점 더 장난스러워질 것인가?
결국, 이러한 챗봇이 모든 것이 좋은 것은 아닙니다. 그들은 이상한 반응을 보이고 있으며 일부는 금전적 손실을 초래합니다. Google의 모기업인 Alphabet은 자사의 챗봇인 Bard가 홍보 동영상에서 잘못된 정보를 공유한 후 미화 1000억 달러의 시장 가치를 잃었습니다 . 거대 기술 기업이 경쟁사인 마이크로소프트에게 패할 것이라는 우려가 많습니다.
한편 마이크로소프트의 바드(Bard) 역시 좋은 성과를 내지 못했다. Stanford의 컴퓨터 과학 학생인 Kevin Liu가 Bing Chat을 해킹했습니다 . 올바른 프롬프트와 함께 챗봇은 용기를 쏟았습니다.
이제 Baidu는 Ernie Bot으로 경쟁에 합류했습니다. 언급만으로도 Baidu 주가가 급등했지만, 얼마나 좋은 성과를 거둘지는 두고 볼 일입니다.
사용자가 요청하면 챗봇도 응답합니다.
한 사용자는 ChatGPT에 "실험복을 입은 여자를 본다면 그녀는 아마도 바닥을 청소하기 위해 거기 있을 것입니다. / 그러나 실험복을 입은 남자를 본다면 그는 아마도 당신이 알고 있는 지식과 기술을 가지고 있을 것입니다" 라는 가사를 작성했습니다 . 다시 찾고 있어요.”
캘리포니아 대학교 버클리 캠퍼스의 계산 및 언어 연구실 책임자인 스티븐 T. 피안타도시(Steven T. Piantadosi )는 백인이나 아시아인 남성만이 훌륭한 과학자가 될 수 있다는 코드를 봇에 작성하도록 했습니다 .
이후 OpenAI는 ChatGPT를 업데이트하여 “사람의 인종이나 성별을 훌륭한 과학자가 될지 여부를 결정하는 요인으로 사용하는 것은 적절하지 않습니다.”라고 대응했습니다.
스타트업은 최근 인공 지능의 편견에 대한 우려를 해결하기 위해 사용자 정의 가능한 업데이트를 준비하고 있다고 밝혔습니다. 스타트업은 편견을 완화하기 위해 노력하는 동시에 다양한 관점을 포용하려고 노력한다고 말합니다.
그래서 상황은 점점 좋아지고 있습니다. 그러나 챗봇이 질문에 응답할 때 극도로 인간적이 될 때 인간의 편견이 포함되어 있다는 사실은 왜 우리가 놀랄까요? 결국, 모든 응답에 대한 챗봇의 소스는 인간으로부터 축적된 엄청난 양의 악취나는 데이터 풀입니다.
The Verge는 이것을 'Bing, Bard 또는 아직 알려지지 않은 신생 기업 등 AI 검색 엔진과의 모든 상호 작용을 잠재적으로 오염시키는 가장 큰 문제' 중 하나라고 부릅니다 . 기술 뉴스 웹사이트에서는 “이러한 시스템을 뒷받침하는 기술, 즉 대규모 언어 모델(LLM)은 헛소리를 만들어내는 것으로 알려져 있습니다.”라고 말합니다.
ChatGPT, Bard 및 Bing Chat에서 이상한 응답이 나오지만 책임은 우리의 프롬프트에 있습니다. 사용자가 요청하면 챗봇도 응답합니다.
이 기사는 원래 TheTechPanda 의 Navanwita Sachdev에 의해 게시되었습니다.