paint-brush
Classificação Multilíngue da Posição Política Grosseira da Mídia: Agradecimentos e Referênciasby@mediabias

Classificação Multilíngue da Posição Política Grosseira da Mídia: Agradecimentos e Referências

Neste artigo, os pesquisadores analisam a neutralidade dos artigos de notícias gerados por IA e a evolução da postura em vários idiomas, usando classificações autênticas de meios de comunicação.
featured image - Classificação Multilíngue da Posição Política Grosseira da Mídia: Agradecimentos e Referências
Media Bias [Deeply Researched Academic Papers] HackerNoon profile picture
0-item

Este artigo está disponível no arxiv sob licença CC BY-NC-SA 4.0 DEED.

Autores:

(1) Cristina España-Bonet, DFKI GmbH, Campus de Informática do Sarre.

Tabela de links

Agradecimentos

O autor agradece aos revisores anônimos pelos comentários e discussões perspicazes. Eran dos ifs.

Referências

Julien Abadji, Pedro Javier Ortiz Suárez, Laurent Romary e Benoît Sagot. 2021. Ungoliant: Um pipeline otimizado para a geração de um corpus web multilíngue em grande escala. Anais do Workshop sobre Desafios na Gestão de Grandes Corpora (CMLC-9) 2021. Limerick, 12 de julho de 2021 (Evento Online), páginas 1–9, Mannheim. LeibnizInstitut für Deutsche Sprache.


Dmitrii Aksenov, Peter Bourgonje, Karolina Zaczynska, Malte Ostendorff, Julian Moreno-Schneider e Georg Rehm. 2021. Classificação refinada do preconceito político nas notícias alemãs: um conjunto de dados e experimentos iniciais. Em Anais do 5º Workshop sobre Abuso e Danos Online (WOAH 2021), páginas 121–131, Online. Associação de Lingüística Computacional.


Ramy Baly, Giovanni Da San Martino, James Glass e Preslav Nakov. 2020. Podemos detectar o seu preconceito: Prevendo a ideologia política dos artigos de notícias. Em Anais da Conferência de 2020 sobre Métodos Empíricos em Processamento de Linguagem Natural (EMNLP), páginas 4982–4991, Online. Associação de Lingüística Computacional.


Micah Carroll, Alan Chan, Henry Ashton e David Krueger. 2023. Caracterizando Manipulação de Sistemas de IA. Pré-impressão do arXiv arXiv:2303.09387.


Lingjiao Chen, Matei Zaharia e James Zou. 2023. Como o comportamento do ChatGPT está mudando ao longo do tempo? Pré-impressão do arXiv arXiv:2307.09009.


Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer e Veselin Stoyanov. 2020. Aprendizagem de representação multilíngue não supervisionada em grande escala. Nos Anais da 58ª Reunião Anual da Association for Computational Linguistics, páginas 8440–8451, Online. Associação de Lingüística Computacional.


Conheça Deshpande, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan e Karthik Narasimhan. 2023. Toxicidade no ChatGPT: Analisando Modelos de Linguagem Atribuídos à Persona. Pré-impressão do arXiv arXiv:2304.05335.


Cristina España-Bonet. 2023. Classificação Multilíngue da Posição Política Grosseira da Mídia. A linha editorial de um jornal ChatGPT e Bard. Conjunto de dados no Zenodo, v1.0.


José Antonio García-Díaz, Ricardo Colomo-Palacios e Rafael Valencia-García. 2022. Identificação de traços psicográficos com base na ideologia política: um estudo de análise de autores sobre tweets de políticos espanhóis postados em 2020. Future Gener. Computação. Sistema, 130(C):59–74.


Xinyang Geng, Arnav Gudibande, Hao Liu, Eric Wallace, Pieter Abbeel, Sergey Levine e Dawn Song. 2023. Koala: Um Modelo de Diálogo para Pesquisa Acadêmica. Postagem no blog.


Google. 2023. Bard [modelo de linguagem grande que segue instruções].


Jochen Hartmann, Jasper Schwenzow e Maximilian Witte. 2023. A ideologia política da IA conversacional: evidências convergentes sobre a orientação pró-ambiental e libertária de esquerda do ChatGPT. Pré-impressão do arXiv arXiv:2301.01768.


Xiaowei Huang, Wenjie Ruan, Wei Huang, Gaojie Jin, Yi Dong, Changshun Wu, Saddek Bensalem, Ronghui Mu, Yi Qi, Xingyu Zhao, e outros. 2023. Uma Pesquisa de Segurança e Confiabilidade de Grandes Modelos de Linguagem através das Lentes de Verificação e Validação. Pré-impressão do arXiv arXiv:2305.11391.


Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson e Mor Naaman. 2023. A co-escrita com modelos de linguagem opinativos afeta as opiniões dos usuários. Em Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, páginas 1–15, Nova York, NY, EUA. Associação de Máquinas de Computação.


Johannes Kiesel, Maria Mestre, Rishabh Shukla, Emmanuel Vincent, Payam Adineh, David Corney, Benno Stein e Martin Potthast. 2019. SemEval2019 tarefa 4: detecção de notícias hiperpartidárias. Em Anais do 13º Workshop Internacional sobre Avaliação Semântica, páginas 829–839, Minneapolis, Minnesota, EUA. Associação de Lingüística Computacional.


Vivek Kulkarni, Junting Ye, Steve Skiena e William Yang Wang. 2018. Modelos multivisualização para detecção de ideologia política em artigos de notícias. Em Anais da Conferência de 2018 sobre Métodos Empíricos em Processamento de Linguagem Natural, páginas 3518–3527, Bruxelas, Bélgica. Associação de Lingüística Computacional.


Andrew Kachites McCallum. 2002. MALLET: Um kit de ferramentas de aprendizado de máquina para idiomas. http://mallet.cs.umass.edu.


Fábio Motoki, Valdemar Pinho Neto e Victor Rodrigues. 2023. Mais humano que humano: Medindo o preconceito político do ChatGPT. Escolha Pública.


Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafai, Albert Webson, Edward Raff e Colin Raffel. 2023. Generalização multilíngue por meio de ajuste fino multitarefa. Em Anais da 61ª Reunião Anual da Association for Computational Linguistics (Volume 1: Long Papers), páginas 15991–16111, Toronto, Canadá. Associação de Lingüística Computacional.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, e outros. 2021. WebGPT: resposta a perguntas assistida por navegador com feedback humano. Pré-impressão do arXiv arXiv:2112.09332.


Roberto Navigli, Simone Conia e Björn Ross. 2023. Vieses em grandes modelos de linguagem: origens, inventário e discussão. J. Qualidade de Dados e Informação, 15(2).


OpenAI. 2023. ChatGPT [modelo de linguagem grande que segue instruções].


Pedro Javier Ortiz Suárez, Benoît Sagot e Laurent Romary. 2019. Pipelines assíncronos para processamento de grandes corpora em infraestruturas de recursos médios e baixos. Anais do Workshop sobre Desafios na Gestão de Grandes Corporativos (CMLC-7) 2019. Cardiff, 22 de julho de 2019, páginas 9–16, Mannheim. Leibniz-Institut für Deutsche Sprache.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder , Paul F Christiano, Jan Leike e Ryan Lowe. 2022. Treinar modelos de linguagem para seguir instruções com feedback humano. Em Advances in Neural Information Processing Systems, volume 35, páginas 27730–27744. Curran Associates, Inc.


David Rozado. 2023. Perigo na máquina: os perigos dos preconceitos políticos e demográficos incorporados no sistema de IA. Manhattan Institute, Issue Brief, páginas 1–16.


Daniel Russo, Salud María Jiménez-Zafra, José Antonio García-Díaz, Tommaso Caselli, L. Alfonso UreñaLópez e Rafael Valencia-García. 2023. PoliticIT na EVALITA 2023: Visão geral da tarefa de detecção de ideologia política em textos italianos. Na Oitava Campanha de Avaliação de Processamento de Linguagem Natural e Ferramentas de Fala para Italiano 2023, número 3473 no CEUR Workshop Proceedings, Aachen.


Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang e Tatsunori B. Hashimoto. 2023. Stanford Alpaca: um modelo LLaMA que segue instruções. https://github.com/tatsu-lab/stanford_alpaca.


Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura , Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang , Aurelien Rodriguez, Robert Stojnic, Sergey Edunov e Thomas Scialom. 2023. Lhama 2: Base aberta e modelos de bate-papo aprimorados. Pré-impressão do arXiv arXiv:2307.09288.


Eva AM van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij e Claudi L. Bockting. 2023. ChatGPT: cinco prioridades de pesquisa. Natureza, 614(7947):224–226.


Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, e outros. 2023a. DecodingTrust: uma avaliação abrangente de confiabilidade em modelos GPT. Pré-impressão do arXiv arXiv:2306.11698.


Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi e Hannaneh Hajishirzi. 2023b. Autoinstruir: Alinhar modelos de linguagem com instruções autogeradas. Em Anais da 61ª Reunião Anual da Association for Computational Linguistics (Volume 1: Long Papers), páginas 13484–13508, Toronto, Canadá. Associação de Lingüística Computacional.


Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Atharva Naik, Arjun Ashok, Arut Selvan Dhanasekaran, Anjana Arunkumar, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia, Krima Doshi, Kuntal Kumar Pal, Maitreya Patel, Mehrad Moradshahi, Mihir Parmar, Mirali Purohit, Neeraj Varshney, Phani Rohitha Kaza, Pulkit Verma, Ravsehaj Singh Puri, Rushang Karia, Savan Doshi, Shailaja Keyur Sampat, Siddhartha Mishra, Sujan Reddy A, Sumanta Patro, Tanay Dixit e Xudong Shen. 2022. Super-NaturalInstructions: Generalização via instruções declarativas em mais de 1600 tarefas de PNL. Em Anais da Conferência de 2022 sobre Métodos Empíricos em Processamento de Linguagem Natural, páginas 5085–5109, Abu Dhabi, Emirados Árabes Unidos. Associação de Lingüística Computacional.


Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai e Quoc V Le. 2022. Modelos de linguagem ajustados são alunos com chance zero. Na Conferência Internacional sobre Representações de Aprendizagem.