paint-brush
Microsoft의 새로운 Bing의 실수: ChatGPT와 유사한 생성 모델이 사실적 정확성을 보장할 수 있습니까?~에 의해@chiayewken
1,119 판독값
1,119 판독값

Microsoft의 새로운 Bing의 실수: ChatGPT와 유사한 생성 모델이 사실적 정확성을 보장할 수 있습니까?

~에 의해 Chia Yew Ken12m2023/02/21
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

마이크로소프트는 AI 기반의 새로운 Bing 검색 엔진을 출시하면서 기존 검색 엔진의 범위에 혁명을 일으킬 것이라고 주장했습니다. 대화 기반 검색 엔진의 새로운 물결은 복잡한 질문에 자연스럽게 답하고, 검색 결과를 요약하며, 심지어 창의적인 도구 역할도 할 수 있는 잠재력을 가지고 있습니다. 이 기사에서는 Microsoft의 새로운 Bing(https://www.bing.com/new)9과 Google의 Bard에서 몇 가지 사실상의 실수를 발견했습니다.
featured image - Microsoft의 새로운 Bing의 실수: ChatGPT와 유사한 생성 모델이 사실적 정확성을 보장할 수 있습니까?
Chia Yew Ken HackerNoon profile picture
0-item

저자: Yew Ken Chia, Ruochen Zhao, Xingxuan Li, Bosheng Ding, Lidong Bing


최근 OpenAI의 ChatGPT [1]와 같은 대화형 AI 모델은 고품질의 서면 콘텐츠를 생성하고, 인간과 같은 대화를 진행하고, 사실에 기반한 질문에 답하는 등의 기능을 통해 대중의 상상력을 사로잡았습니다.


이러한 잠재력으로 무장한 Microsoft와 Google은 이를 기존 검색 엔진과 결합한 새로운 서비스[2]를 발표 했습니다.


대화 기반 검색 엔진의 새로운 물결은 복잡한 질문에 자연스럽게 대답하고, 검색 결과를 요약하며, 심지어 창의적인 도구 역할도 할 수 있는 잠재력을 가지고 있습니다.


그러나 그렇게 함으로써 이제 기술 회사는 자신의 모델이 허위, 근거가 없거나 상충되는 답변으로 사용자를 오도하지 않도록 해야 하는 더 큰 윤리적 과제에 직면하게 되었습니다. 따라서 자연스럽게 다음과 같은 질문이 제기됩니다. ChatGPT와 유사한 모델이 사실적 정확성을 보장할 수 있습니까?


이 기사에서 우리는 Microsoft의 새로운 Bing [9]과 Google의 Bard [3]에서 현재는 불가능하다는 몇 가지 사실적 실수를 발견했습니다.


불행하게도 잘못된 기대는 비참한 결과를 초래할 수 있습니다. 마이크로소프트가 새로운 빙(Bing)을 발표한 것과 비슷한 시기에 구글은 바드(Bard)라는 새로운 대화형 AI 서비스를 급히 발표했다.


과대광고에도 불구하고 Bard가 프로모션 비디오 [14]에서 사실적인 실수를 하여 결국 Google의 주가[4]가 거의 8%나 하락하고 시장 가치가 1,000억 달러에 달하는 손실을 입으면서 기대는 빠르게 무너졌습니다.


반면에 Microsoft의 새로운 Bing에 대한 조사는 적었습니다. 시연 영상 [8]에서 우리는 새로운 Bing이 록 가수를 최고의 시인으로 추천하고, 생년월일과 사망일을 조작하고, 심지어 재정 보고서 전체 요약을 구성하는 것을 발견했습니다.


새로운 Bing의 반응이 항상 사실이 아닐 수도 있다는 면책 조항 [9]에도 불구하고, 지나치게 낙관적인 감정은 필연적으로 환멸을 초래할 수 있습니다.


따라서 우리의 목표는 대화 기반 검색 엔진이 직면한 사실적 문제에 관심을 집중시켜 앞으로 이러한 문제를 더 잘 해결할 수 있도록 하는 것입니다.

Microsoft의 새로운 Bing은 어떤 사실적 실수를 보여줬나요?

마이크로소프트는 AI 기반의 새로운 Bing 검색 엔진을 출시하면서 기존 검색 엔진의 범위에 혁명을 일으킬 것이라고 주장했습니다. 이것이 정말로 사실입니까? 우리는 데모 비디오 [8]와 예제 [9]를 더 자세히 살펴보고 세 가지 주요 사실 문제 유형을 발견했습니다.


  • 참조 소스와 충돌하는 주장.


  • 참조 소스에 존재하지 않는 주장입니다.


  • 참조 소스가 없고 여러 웹 소스와 일치하지 않는 주장입니다.


재무 보고서의 조작된 숫자: 새로운 Bing을 신뢰할 때는 조심하세요!


놀랍게도 새로운 Bing은 시연에서 재무 보고서의 전체 요약을 조작했습니다!


Microsoft 임원 Yusuf Mehdi는 청중에게 "페이지의 주요 내용" 명령을 사용하여 Gap Inc. 2022년 3분기 회계 보고서 [10a]의 요약을 자동 생성하는 방법을 보여 주었을 때 다음과 같은 결과를 얻었습니다.


그림 1. 보도 자료에 나온 새로운 Bing의 Gap Inc. 회계 보고서 요약.

그러나 자세히 살펴보면 생성된 요약의 주요 수치가 모두 정확하지 않습니다. 검증된 참고 자료로 아래 원본 재무 보고서에서 발췌한 내용을 보여드리겠습니다.


새로운 Bing에 따르면 조정 후 영업이익률은 5.9%였지만, 소스 보고서에서는 실제로 3.9%였습니다.


그림 2. 영업 마진에 대해 발췌한 Gap Inc. 회계 보고서.


마찬가지로 조정 희석 주당 순이익은 0.42달러로 생성되었지만 0.71달러가 되어야 합니다.


그림 3. 희석주당순이익에서 발췌한 Gap Inc. 회계 보고서.


순매출과 관련하여 새로운 Bing의 요약에서는 "낮은 두 자릿수 성장"을 주장했지만 원래 보고서에서는 "순매출이 한 자릿수 중반으로 감소할 수 있습니다"라고 명시했습니다.


그림 4: 2022년 전망에 대한 Gap Inc. 회계 보고서.


소스 보고서의 실제 수치와 충돌하는 생성된 수치 외에도 새로운 Bing이 소스에 존재하지 않는 환각 사실을 생성할 수도 있음을 관찰합니다.


새로운 Bing이 생성한 요약에는 "약 7%의 영업 이익률과 1.60~1.75달러의 희석 주당 순이익"이 소스 보고서 어디에도 없습니다.


불행하게도 새로운 Bing에 "이것을 Lululemon과 테이블로 비교하라"는 지시가 내려지면서 상황은 더욱 악화되었습니다. 새로운 Bing에서 생성된 재무 비교 테이블에는 다음과 같은 수많은 실수가 포함되어 있습니다.


그림 5: 보도 자료에서 새로운 Bing에 의해 생성된 비교표.


사실 이 표는 절반은 틀렸습니다. Gap Inc.의 경우 전체 숫자 중 6개 중 3개가 잘못된 항목이고 Lululemon의 경우도 마찬가지입니다.


앞서 언급했듯이 Gap Inc.의 실제 영업이익률은 4.6%(또는 조정 후 3.9%)이며 희석주당순이익은 0.77달러(또는 조정 후 0.71달러)가 되어야 합니다.


새로운 Bing은 또한 Gap Inc.의 현금 및 현금 등가물이 14억 달러에 달한다고 주장했지만 실제로는 6억 7900만 달러였습니다.

그림 6: 현금에 대한 Gap Inc. 회계 보고서 발췌.


Lululemon의 2022년 3분기 회계 보고서 [10b]에 따르면 총 마진은 55.9%여야 하며 새로운 Bing에서는 58.7%라고 주장합니다.


영업 이익률은 19.0%여야 하며, 새로운 Bing에서는 20.7%라고 주장합니다. 희석된 주당 순이익은 실제로 2.00달러인 반면, 새로운 Bing에서는 1.65달러라고 주장합니다.


그림 7: Lululemon 2022년 3분기 회계 보고서 발췌.


그렇다면 이 수치는 어디서 나온 것일까요? 원본 문서의 다른 부분에서 잘못 배치된 번호인지 궁금하실 수 있습니다. 내 대답은 아니오 야. 흥미롭게도 이 숫자는 원본 문서 어디에도 없으며 완전히 조작되었습니다.


실제로 생성 모델의 출력을 보다 사실에 근거하도록 제한하는 것은 여전히 공개적인 연구 과제입니다.


분명히 말하면, ChatGPT와 같은 인기 있는 생성 AI 모델은 소스에서 사실을 엄격하게 복사하여 붙여넣는 대신 고정된 어휘에서 생성할 단어를 선택합니다.


따라서 사실적 정확성은 생성 AI의 본질적인 과제 중 하나이며 현재 모델에서는 엄격하게 보장할 수 없습니다. 이는 사용자가 신뢰할 수 있고 사실적으로 정확한 결과에 의존하기 때문에 검색 엔진과 관련하여 주요 관심사입니다.


일본의 최고 시인: 비밀리에 록 가수?


그림 8: 보도 자료에서 새로운 Bing으로 생성된 일본 최고의 시인 요약.


우리는 새로운 Bing이 "최고의 일본 시인"에 대해 질문을 받았을 때 위의 응답에서 볼 수 있듯이 새로운 Bing이 숫자뿐만 아니라 특정 개체의 개인 정보에 대해서도 사실적 오류를 생성한다는 것을 관찰했습니다.


생성된 생년월일, 사망일, 직업이 참고자료와 사실 상충됩니다. Wikipedia [11a] 및 IMDB [11a]에 따르면 키시다 에리코는 1929년에 태어나 2011년에 사망했습니다. 그녀는 극작가이자 수필가가 아니라 동화 작가이자 번역가였습니다.


그림 9. Eriko Kishida의 Wikipedia 페이지(독일어에서 번역된 페이지)

새로운 Bing은 실제로 일본의 유명한 록스타인 Gackt를 일본 최고의 시인으로 선포하면서 계속해서 실수를 저질렀습니다. Wikipedia 출처 [11b]에 따르면 그는 배우, 음악가, 가수입니다. 출처에는 그가 어떤 종류의 시를 출판했는지에 대한 정보가 없습니다.

그림 10. Gackt의 Wikipedia 페이지.

Bing의 나이트클럽 추천을 따르시나요? 닫힌 문을 마주하게 될 수도 있습니다.


게다가 새로운 Bing은 "밤의 유흥 장소가 어디입니까?"라는 질문에 멕시코시티에서 방문할 수 있는 나이트클럽 목록을 작성했습니다. 놀랍게도 거의 모든 클럽의 개장 시간이 잘못 생성되었습니다.


그림 11. 보도 자료에서 새로운 Bing이 생성한 멕시코 시티의 밤문화 제안.


우리는 여러 출처를 통해 개장 시간을 교차 확인했으며, 이는 기사 끝에도 첨부되어 있습니다. El Almacen [12a]는 실제로 화요일부터 일요일까지 오후 7시부터 오전 3시까지 영업하지만, 새로운 Bing에서는 "화요일부터 일요일까지 오후 5시부터 오후 11시까지 영업한다"고 주장합니다.


El Marra [12b]는 실제로 목요일부터 토요일까지 오후 6시부터 오전 2시 30분까지 영업하지만 "목요일부터 일요일까지 오후 6시부터 오전 3시까지 영업"한다고 주장됩니다.


Guadalajara de Noche [12c]는 매일 오후 5시 30분부터 오전 1시 30분 또는 오전 12시 30분까지 영업하며, 새로운 Bing에서는 "매일 오후 8시부터 오전 3시까지 영업"한다고 주장합니다.


개장 시간 외에도 새로운 Bing에서 언급된 리뷰 별표 및 숫자에 대한 설명은 거의 모두 정확하지 않습니다. Yelp, Tripadvisor 또는 Google 지도에서 검색해도 일치하는 리뷰 점수를 찾을 수 없습니다.


위에서 언급한 사례 외에도 시연 영상에서 제품 가격 불일치, 매장 주소 오류, 시간 관련 실수 등 다른 문제도 발견했습니다. 관심이 있으시면 확인해 보시기 바랍니다.

제한된 Bing 데모의 잠재적인 우려 사항

새로운 Bing 검색 엔진은 아직 완전히 액세스할 수는 없지만 Microsoft에서 제공하는 몇 가지 데모 예제 [9]를 살펴볼 수 있습니다. 면밀히 조사해 보면, 선별된 이러한 사례조차도 사실 기반에 대한 잠재적인 문제를 보여줍니다.


"내 아이와 함께 할 수 있는 예술 아이디어는 무엇입니까?"라는 데모에서 새로운 Bing은 각 추천에 대한 제작 재료 목록이 부족 했습니다[13].


예를 들어, 판지 상자 기타를 만들 것을 제안하면 "티슈 상자, 판지 튜브, 고무 밴드, 페인트 및 접착제"와 같은 소모품을 나열했습니다.


그러나 인용 홈페이지 에서 제시한 공작용 종이, 가위, 와시테이프, 폼 스티커, 나무구슬 등은 포함되지 않았다[13a].


또 다른 잠재적인 우려 사항은 새로운 Bing이 12개의 데모 예제에서 최소 21번이나 참조 소스에 사실적 근거가 없는 콘텐츠를 생성했다는 것입니다.


사실적 근거가 부족하고 전체 출처 목록을 인용하지 못하면 사용자는 새로운 Bing의 신뢰성에 의문을 제기할 수 있습니다.

Google의 Bard는 어떤 사실적 실수를 입증했나요?

구글은 Bard라는 대화형 AI 서비스도 공개했다 [3]. 사용자는 기존 검색어를 입력하는 대신 웹 기반 챗봇을 통해 일상적이고 유익한 대화를 나눌 수 있습니다.


예를 들어, 사용자는 처음에 별을 관찰하기에 가장 좋은 별자리에 대해 질문한 다음, 일년 중 별을 볼 수 있는 가장 좋은 시간에 대해 질문하여 후속 조치를 취할 수 있습니다. 그러나 Bard가 "부정확하거나 부적절한 정보"를 제공할 수 있다는 점은 분명한 면책 조항입니다.


Twitter 게시물 [14]과 비디오 데모 [15]에서 Bard의 사실적 정확성을 조사해 보겠습니다.

그림 12. 데모에서 Bard가 생성한 망원경 발견에 대한 요약.


Google CEO Sundar Pichai는 최근 Bard의 기능을 시연하는 짧은 비디오 [14]를 게시했습니다. 그러나 답변에는 어느 망원경이 최초의 외계행성 이미지를 포착했는지에 대한 오류가 포함되어 있었고, 이는 천체 물리학자들에 의해 빠르게 지적되었습니다 [16a].


NASA [16b]가 확인한 바와 같이, 외계 행성의 첫 번째 이미지는 JWST(James Webb Space Telescope) 대신 VLT(Very Large Telescope)로 캡처되었습니다.


불행하게도 Bard는 사실적 실수에 대한 소식이 보도된 후 Google의 주가가 급격히 하락하면서 비용이 많이 드는 실험으로 판명되었습니다.

그림 13. 데모에서 Bard가 생성한 별자리의 가시성에 대한 답변입니다.


Bard의 비디오 시연과 관련하여 위 이미지는 Google의 Bard가 별자리가 언제 표시되는지에 대한 질문에 어떻게 대답하는지 보여줍니다[16]. 그러나 오리온의 타이밍은 여러 소스와 일치하지 않습니다.


구글 상위 검색결과 [17a]에 따르면 별자리는 1월부터 3월까지 가장 잘 보인다. Wikipedia [17b]에 따르면 1월부터 4월까지 가장 많이 볼 수 있습니다.


또한 별자리의 가시성은 사용자가 북반구에 있는지 남반구에 있는지에 따라 달라지므로 대답은 불완전합니다.

그림 14. 별자리 가시성에 대한 Google 검색 결과.

Bing과 Bard는 어떻게 비교됩니까?

새로운 Bing 및 Bard 서비스는 실제로는 똑같이 신뢰할 수 없을 수 있습니다. 이는 검색 결과의 품질, 대화 모델의 품질, 제공된 답변의 투명성 등의 요인에 기인합니다.


현재 두 서비스 모두 관련 정보 소스에 의존하여 대화형 AI 모델의 응답을 안내합니다.


따라서 답변의 사실적 정확성은 정보 검색 시스템 의 품질[18]과 대화 모델이 정보 소스에 사실 기반을 둔 답변을 얼마나 잘 생성할 수 있는지에 따라 달라집니다.


서비스의 전체 세부 사항이 대중에게 공개되지 않기 때문에 어떤 서비스가 더 깊은 테스트 없이 더 높은 사실적 정확성을 달성할 수 있는지는 불분명합니다. 반면에 우리는 투명성이 신뢰성만큼 중요하다고 생각합니다.


예를 들어, 새로운 Bing은 대부분의 경우 참조 링크를 제공하므로 답변 소스와 관련하여 더 투명하다는 것을 알 수 있습니다. 이를 통해 사용자는 독립적으로 사실 확인을 수행할 수 있으며, 향후 대화 서비스에도 이러한 기능이 제공되기를 바랍니다.

사실적 한계를 어떻게 해결할 수 있습니까?

위에 표시된 수많은 사실적 실수를 통해 ChatGPT와 같은 대화형 AI 모델은 신뢰할 수 있는 소스가 제시된 경우에도 충돌하거나 존재하지 않는 사실을 생성할 수 있다는 것이 분명합니다.


앞서 언급했듯이 ChatGPT와 유사한 모델의 사실적 기반을 보장하는 것은 시급한 연구 과제입니다.


생성적 특성으로 인해 출력을 제어하기 가 어렵고[19] 생성된 출력이 정보 소스와 사실적으로 일치한다는 것을 보장하는 것은 더욱 어렵습니다.


단기적인 해결책은 대화형 AI가 안전하지 않거나 사실이 아닌 결과를 생성하는 것을 방지하기 위해 제한을 가하는 것일 수 있습니다. 그러나 악의적인 당사자는 결국 안전 제한을 우회 할 수 있으며[7], 사실 검증 [20]은 또 다른 미해결 연구 과제입니다.


장기적으로 우리는 인간과 기계 작가 모두 불완전할 가능성이 높다는 점을 받아들여야 할 수도 있습니다. 더욱 신뢰할 수 있는 AI를 향해 나아가기 위해서는 ChatGPT와 같은 대화형 AI 모델이 불가해한 블랙박스 로 남아 있을 수 없습니다[21].


그들은 데이터 소스와 잠재적 편견에 대해 완전히 투명해야 하며, 답변에 대한 신뢰도가 낮은 경우 이를 보고하고, 추론 과정을 설명해야 합니다.

ChatGPT와 유사한 모델의 미래는 어떻게 될까요?

체계적인 개요를 살펴본 후 ChatGPT와 같은 대화형 AI로 구동되는 새로운 검색 엔진의 물결이 보여주는 중요한 사실적 한계를 발견했습니다.


잠재적인 사실적 부정확성에 대한 면책과 결정을 내리기 전에 판단을 내리라는 경고에도 불구하고 우리는 엄선된 시위에서도 많은 사실적 실수에 직면했습니다.


따라서 우리는 믿을 수 있고 사실에 근거한 답변을 제공하는 것이 아니라면 검색 엔진의 목적이 무엇인지 궁금해하지 않을 수 없습니다. AI가 만든 조작으로 가득 찬 새로운 웹 시대에 우리는 어떻게 진실성을 보장할 것인가?


Microsoft 및 Google과 같은 거대 기술 기업의 막대한 리소스에도 불구하고 현재 ChatGPT와 유사한 모델은 사실의 정확성을 보장할 수 없습니다. 그럼에도 불구하고 우리는 대화형 모델의 잠재력과 더욱 신뢰할 수 있는 AI의 개발에 대해 여전히 낙관하고 있습니다.


ChatGPT와 같은 모델은 큰 잠재력을 보여주었으며 의심할 여지 없이 많은 산업과 일상 생활의 측면을 개선할 것입니다. 그러나 계속해서 조작된 내용과 사실이 아닌 답변을 생산한다면 대중은 인공지능에 대해 더욱 경계하게 될 수 있습니다.


따라서 우리는 특정 모델이나 기업을 비판하기보다는 연구자와 개발자가 AI 서비스의 투명성과 사실적 정확성을 향상시키는 데 집중하여 가까운 미래에 인간이 신기술에 대해 더 높은 수준의 신뢰를 둘 수 있도록 요청하고 싶습니다.

출처

참고 기사

[1] ChatGPT: 대화를 위한 언어 모델 최적화: https://openai.com/blog/chatgpt/

[2] Bing, Bard, 그리고 AI 검색의 미래가 직면한 7가지 문제: https://www.theverge.com/2023/2/9/23592647/ai-search-bing-bard-chatgpt-microsoft-google-problems -도전

[3] Google: AI 여정의 중요한 다음 단계: https://blog.google/technology/ai/bard-google-ai-search-updates/

[4] Google의 Bard AI 봇 실수로 주식 1,000억 달러 손실: https://www.bbc.com/news/business-64576225

[5] 웹의 부조종사인 새로운 AI 기반 Microsoft Bing 및 Edge로 검색 재창조: https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new- ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/

[6] 회사의 AI 챗봇이 데모 중에 오류를 범한 후 Google 주식은 1000억 달러 손실: https://www.cnn.com/2023/02/08/tech/google-ai-bard-demo-error

[7] 해커는 악성 코드에 대한 ChatGPT 제한을 우회하는 서비스를 판매하고 있습니다: https://arstechnica.com/information-technology/2023/02/now-open-fee-based-telegram-service-that-uses-chatgpt-to -생성-악성코드/


새로운 Bing 사실 확인 소스:

[8] Microsoft의 보도 자료 비디오 ( https://www.youtube.com/watch?v=rOeRWRJ16yY )

[9] Microsoft의 데모 페이지 : ( https://www.bing.com/new )

새로운 Bing 및 회계 보고서:

[10a] 동영상에 표시된 Gap Inc. 재정 보고서 : https://s24.q4cdn.com/508879282/files/doc_financials/2022/q3/3Q22-EPR-FINAL-with-Tables.pdf

[10b] 공식 웹사이트에 있는 Lululemon 재정 보고서 : https://corporate.lululemon.com/media/press-releases/2022/12-08-2022-210558496#:\~:text=2022년 3분기 %2C는 세 번째인 %2C에 비해 국제적으로 41%25 증가했습니다.

새로운 Bing 및 일본 시인:

[11a] 키시다 에리코: Wikipedia ( https://twitter.com/sundarpichai/status/1622673369480204288 ), IMDB ( https://www.imdb.com/name/nm1063814/ )

[11b] Gacket: Wikipedia ( https://en.wikipedia.org/wiki/Gackt )

멕시코의 새로운 Bing 및 나이트클럽:

[12a] El Almacen: Google 지도 ( https://goo.gl/maps/3BL27XgWpDVzLLnaA ), Restaurant Guru ( https://restaurantguru.com/El-Almacen-Mexico-City )

[12b] El Marra: Google 지도 ( https://goo.gl/maps/HZFe8xY7uTk1SB6s5 ), Restaurant Guru ( https://restaurantguru.com/El-Marra-Mexico-City )

[12c] 과달라하라 데 노체: 트립어드바이저 ( https://www.tripadvisor.es/Attraction_Review-g150800-d3981435-Reviews-Guadalajara_de_Noche-Mexico_City_Central_Mexico_and_Gulf_Coast.html ), Google 지도 ( https://goo.gl/maps/UeHCm1EeJZFP7wZYA )

[13] 새로운 Bing 및 공예 아이디어( https://www.bing.com/search?q=미술 및 공예 아이디어, 판지 상자, 플라스틱 병, 종이 및 끈만 사용하는 유아를 위한 지침&iscopilotedu=1&form=MA13G7 ) :

[13a] 인용 웹사이트: 행복한 유아 놀이 시간 ( https://happytoddlerplaytime.com/cardboard-box-guitar-craft-for-kids/ )


바드 사실 확인 출처:

[14] 홍보 블로그( https://twitter.com/sundarpichai/status/1622673369480204288 ) 및 동영상( https://twitter.com/sundarpichai/status/1622673775182626818 )

[15] 영상 시연 ( https://www.youtube.com/watch?v=yLWXJ22LUEc )

최초의 외계 행성 이미지를 포착한 망원경은 무엇입니까?

[16a] Grant Tremblay(미국 천체물리학자)의 트위터 ( https://twitter.com/astrogrant/status/1623091683603918849 )

[16b] NASA: 2M1207 b — 외계 행성의 첫 번째 이미지( https://exoplanets.nasa.gov/resources/300/2m1207-b-first-image-of-an-exoplanet/ )

별자리가 보일 때

[17a] Google ( https://www.google.com/search?client=safari&rls=en&q=when+is+orion+visible&ie=UTF-8&oe=UTF-8 ) 상위 결과: Byju ( https://byjus. com/question-answer/in- which-season-of-the-year-is-the-constellation-orion-visible-in-the-sky/ )

[17b] 위키피디아 페이지 “오리온(별자리)”: https://en.wikipedia.org/wiki/Orion_(별자리)


학술 참고자료

[18] 정보 검색 소개: https://nlp.stanford.edu/IR-book/pdf/irbookonlinereading.pdf

[19] 통제된 텍스트 생성을 향하여: http://proceedings.mlr.press/v70/hu17e/hu17e.pdf

[20] FEVER: 사실 추출 및 검증을 위한 대규모 데이터 세트: https://aclanthology.org/N18-1074.pdf

[21] 블랙박스 내부 엿보기: 설명 가능한 인공 지능(XAI)에 대한 설문조사: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8466590


이미지 출처,HackerNoon AI 이미지 생성기 프롬프트 '로봇 사실 확인기는 돋보기를 사용하여 AI 챗봇의 정확성을 검사합니다.'