이 문서는 CC BY-NC-SA 4.0 DEED 라이센스에 따라 arxiv에서 볼 수 있습니다.
저자:
(1) Cristina España-Bonet, DFKI GmbH, 자를란트 정보학 캠퍼스.
저자는 통찰력 있는 논평과 토론을 해주신 익명의 심사위원들에게 감사드립니다. Eran은 ifs를 수행합니다.
줄리앙 아바지, 페드로 하비에르 오르티스 수아레스, 로랑 로마리, 베누아 사고. 2021. Ungoliant: 초대형 다국어 웹 코퍼스 생성을 위해 최적화된 파이프라인입니다. 대규모 기업 관리의 과제에 관한 워크숍 간행물(CMLC-9) 2021. Limerick, 2021년 7월 12일(온라인 이벤트), 1~9페이지, 만하임. 라이프니츠연구소(LeibnizInstitut für Deutsche Sprache).
Dmitrii Aksenov, Peter Bourgonje, Karolina Zaczynska, Malte Ostendorff, Julian Moreno-Schneider 및 Georg Rehm. 2021. 독일 뉴스의 정치적 편견에 대한 세분화된 분류: 데이터 세트 및 초기 실험. 온라인 학대 및 피해에 관한 제5차 워크숍 진행(WOAH 2021), 121~131페이지, 온라인. 전산언어학협회.
라미 발리, 조반니 다 산 마르티노, 제임스 글래스, 프레슬라프 나코프. 2020. 우리는 당신의 편견을 탐지할 수 있습니다: 뉴스 기사의 정치적 이데올로기를 예측합니다. 2020년 EMNLP(자연어 처리의 경험적 방법에 관한 회의) 진행 과정, 4982~4991페이지, 온라인. 전산언어학협회.
미카 캐롤, 앨런 챈, 헨리 애쉬튼, 데이비드 크루거. 2023. AI 시스템의 조작 특성화. arXiv 사전 인쇄 arXiv:2303.09387.
링자오 첸(Lingjiao Chen), 마테이 자하리아(Matei Zaharia), 제임스 주(James Zou). 2023. ChatGPT의 동작은 시간이 지남에 따라 어떻게 변합니까? arXiv 사전 인쇄 arXiv:2307.09009.
Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer 및 Veselin Stoyanov. 2020. 대규모 비지도 교차 언어 표현 학습. 전산언어학협회 제58차 연차총회 진행, 8440~8451페이지, 온라인. 전산언어학협회.
Ameet Deshpande, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan 및 Karthik Narasimhan. 2023. ChatGPT의 독성: 페르소나 할당 언어 모델 분석. arXiv 사전 인쇄 arXiv:2304.05335.
크리스티나 에스파냐-보넷. 2023. 미디어의 다국어 거친 정치적 입장 분류. ChatGPT 및 Bard 신문의 편집 라인. Zenodo v1.0의 데이터세트.
호세 안토니오 가르시아-디아스, 리카르도 콜로모-팔라시오스, 라파엘 발렌시아-가르시아. 2022. 정치적 이념에 기초한 심리적 특성 식별: 2020년 게재된 스페인 정치인의 트윗에 대한 저자 분석 연구. Future Gener. 계산. Syst., 130(C):59–74.
Xinyang Geng, Arnav Gudibande, Hao Liu, Eric Wallace, Pieter Abbeel, Sergey Levine 및 Dawn Song. 2023. 코알라: 학술 연구를 위한 대화 모델. 블로그 게시물.
Google. 2023. 바드 [지시 따르기 대형 언어 모델].
요헨 하르트만, 야스퍼 슈벤초프, 막시밀리안 비테. 2023. 대화형 AI의 정치적 이데올로기: ChatGPT의 친환경적, 좌파 자유주의적 지향에 대한 증거 수렴. arXiv 사전 인쇄 arXiv:2301.01768.
Xiaowei Huang, Wenjie Ruan, Wei Huang, Gaojie Jin, Yi Dong, Changshun Wu, Saddek Bensalem, Ronghui Mu, Yi Qi, Xingyu Zhao 등. 2023. 확인 및 검증의 렌즈를 통한 대규모 언어 모델의 안전성 및 신뢰성에 대한 조사. arXiv 사전 인쇄 arXiv:2305.11391.
Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson 및 Mor Naaman. 2023. 독선적인 언어 모델과의 공동 글쓰기는 사용자의 견해에 영향을 미칩니다. 컴퓨팅 시스템의 인적 요소에 관한 2023 CHI 컨퍼런스 진행, 1~15페이지, 미국 뉴욕주 뉴욕. 컴퓨팅 기계 협회.
Johannes Kiesel, Maria Mestre, Rishabh Shukla, Emmanuel Vincent, Payam Adineh, David Corney, Benno Stein 및 Martin Potthast. 2019. SemEval2019 작업 4: 초당파적 뉴스 감지. 의미론적 평가에 관한 제13회 국제 워크숍 진행, 829~839페이지, 미국 미네소타 주 미니애폴리스. 전산언어학협회.
Vivek Kulkarni, Junting Ye, Steve Skiena, William Yang Wang. 2018. 뉴스 기사의 정치적 이념 탐지를 위한 다중 뷰 모델. 자연어 처리의 경험적 방법에 관한 2018년 컨퍼런스 진행, 3518~3527페이지, 벨기에 브뤼셀. 전산언어학협회.
앤드루 카치테스 맥칼럼. 2002. MALLET: 언어 툴킷을 위한 기계 학습. http://mallet.cs.umass.edu.
파비오 모토키, 발데마르 피뉴 네토, 빅터 로드리게스. 2023. 인간보다 인간이 더: ChatGPT 정치적 편견 측정. 공공 선택.
Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff 및 Colin Raffel. 2023. 다중 작업 미세 조정을 통한 교차 언어 일반화. 전산언어학협회 제61차 연차총회(제1권: 긴 논문), 15991~16111페이지, 캐나다 토론토. 전산언어학협회.
Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders 등 2021. WebGPT: 사람의 피드백으로 답변하는 브라우저 지원 질문. arXiv 사전 인쇄 arXiv:2112.09332.
로베르토 나비글리, 시모네 코니아, 비욘 로스. 2023. 대규모 언어 모델의 편향: 기원, 목록 및 토론. J. 데이터 및 정보 품질, 15(2).
오픈AI. 2023. ChatGPT [명령에 따른 대형 언어 모델].
페드로 하비에르 오르티스 수아레스, 베누아 사고, 로랑 로마리. 2019. 중간 및 낮은 리소스 인프라에서 대규모 코퍼스를 처리하기 위한 비동기 파이프라인. 대규모 기업 관리의 과제에 관한 워크숍 간행물(CMLC-7) 2019. 카디프, 2019년 7월 22일, 9~16페이지, 만하임. Leibniz-Institut für Deutsche Sprache.
Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder , 폴 F 크리스티아노(Paul F Christiano), 얀 라이케(Jan Leike), 라이언 로우(Ryan Lowe). 2022. 인간의 피드백을 통해 지침을 따르도록 언어 모델을 훈련합니다. 신경 정보 처리 시스템의 발전, 35권, 27730-27744페이지. 커란 어소시에이츠, Inc.
데이비드 로자도. 2023. 기계의 위험: AI 시스템에 내재된 정치적, 인구통계학적 편견의 위험. 맨해튼 연구소(Manhatan Institute), 이슈 개요, 1~16페이지.
다니엘 루소, 살루드 마리아 히메네스-자프라, 호세 안토니오 가르시아-디아즈, 토마소 카셀리, L. 알폰소 우레냐로페즈, 라파엘 발렌시아-가르시아. 2023. EVALITA 2023의 PoliticIT: 이탈리아어 텍스트 작업의 정치적 이데올로기 탐지 개요. 2023년 이탈리아어를 위한 자연어 처리 및 음성 도구의 8차 평가 캠페인, CEUR 워크샵 절차, 아헨에서 번호 3473.
Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang 및 Tatsunori B. Hashimoto. 2023. 스탠포드 알파카: 지시를 따르는 LLaMA 모델. https: //github.com/tatsu-lab/stanford_alpaca.
Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude 페르난데스, 제레미 푸, 웨닌 푸, 브라이언 풀러, 신시아 가오, 베다누즈 고스와미, 나만 고얄, 안소니 하트쇼른, 사가르 호세이니, 루이 호우, 하칸 이난, 마르신 카르다스, 빅토르 케르케즈, 마디안 캅사, 이사벨 클로만, 아르템 코레네프, 푸니트 싱 코우라 , Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang , Aurelien Rodriguez, Robert Stojnic, Sergey Edunov 및 Thomas Scialom. 2023. Llama 2: 개방형 기반 및 미세 조정된 채팅 모델. arXiv 사전 인쇄 arXiv:2307.09288.
Eva AM van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij 및 Claudi L. Bockting. 2023. ChatGPT: 연구의 5가지 우선순위. 자연, 614(7947):224–226.
Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer 등 2023a. DecodingTrust: GPT 모델의 신뢰성에 대한 종합적인 평가. arXiv 사전 인쇄 arXiv:2306.11698.
Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi 및 Hannaneh Hajishirzi. 2023b. 자가 지시: 언어 모델을 자가 생성 지시 사항에 맞추는 것입니다. 전산언어학협회 제61차 연차총회(제1권: 긴 논문), 페이지 13484-13508, 캐나다 토론토. 전산언어학협회.
Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Atharva Naik, Arjun Ashok, Arut Selvan Dhanasekaran, Anjana Arunkumar, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia, Krima Doshi, Kuntal Kumar Pal, Maitreya Patel, Mehrad Moradshahi, Mihir Parmar, Mirali Purohit, Neeraj Varshney, Phani Rohitha Kaza, Pulkit Verma, Ravsehaj Singh Puri, Rushang Karia, Savan Doshi, Shailaja Keyur Sampat, Siddhartha Mishra, Sujan Reddy A, Sumanta Patro, Tanay Dixit 및 Xudong Shen. 2022. Super-NaturalInstructions: 1600개 이상의 NLP 작업에 대한 선언적 지침을 통한 일반화. 2022년 자연어 처리의 경험적 방법에 관한 컨퍼런스 진행, 페이지 5085-5109, 아랍에미리트 아부다비. 전산언어학협회.
Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai 및 Quoc V Le. 2022. 미세 조정된 언어 모델은 제로샷 학습자입니다. 학습 표현에 관한 국제 회의에서.