paint-brush
Clasificación multilingüe de posturas políticas generales de los medios: reconocimientos y referenciasby@mediabias

Clasificación multilingüe de posturas políticas generales de los medios: reconocimientos y referencias

En este artículo, los investigadores analizan la neutralidad de los artículos de noticias generados por IA y la evolución de la postura en todos los idiomas utilizando calificaciones auténticas de los medios de comunicación.
featured image - Clasificación multilingüe de posturas políticas generales de los medios: reconocimientos y referencias
Media Bias [Deeply Researched Academic Papers] HackerNoon profile picture
0-item

Este documento está disponible en arxiv bajo licencia CC BY-NC-SA 4.0 DEED.

Autores:

(1) Cristina España-Bonet, DFKI GmbH, Campus de Informática del Sarre.

Tabla de enlaces

Expresiones de gratitud

El autor agradece a los revisores anónimos por sus interesantes comentarios y debates. Eran dos si.

Referencias

Julien Abadji, Pedro Javier Ortiz Suárez, Laurent Romary y Benoît Sagot. 2021. Ungoliant: un canal optimizado para la generación de un corpus web multilingüe a gran escala. Actas del taller sobre desafíos en la gestión de grandes corporaciones (CMLC-9) 2021. Limerick, 12 de julio de 2021 (evento en línea), páginas 1 a 9, Mannheim. LeibnizInstitut für Deutsche Sprache.


Dmitrii Aksenov, Peter Bourgonje, Karolina Zaczynska, Malte Ostendorff, Julian Moreno-Schneider y Georg Rehm. 2021. Clasificación detallada del sesgo político en las noticias alemanas: un conjunto de datos y experimentos iniciales. En Actas del quinto taller sobre abusos y daños en línea (WOAH 2021), páginas 121–131, en línea. Asociación de Lingüística Computacional.


Ramy Baly, Giovanni Da San Martino, James Glass y Preslav Nakov. 2020. Podemos detectar su sesgo: predecir la ideología política de los artículos periodísticos. En Actas de la Conferencia de 2020 sobre métodos empíricos en el procesamiento del lenguaje natural (EMNLP), páginas 4982–4991, en línea. Asociación de Lingüística Computacional.


Micah Carroll, Alan Chan, Henry Ashton y David Krueger. 2023. Caracterización de la manipulación a partir de sistemas de IA. Preimpresión de arXiv arXiv:2303.09387.


Lingjiao Chen, Matei Zaharia y James Zou. 2023. ¿Cómo cambia el comportamiento de ChatGPT con el tiempo? Preimpresión de arXiv arXiv:2307.09009.


Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer y Veselin Stoyanov. 2020. Aprendizaje de representación multilingüe no supervisado a escala. En Actas de la 58ª Reunión Anual de la Asociación de Lingüística Computacional, páginas 8440–8451, en línea. Asociación de Lingüística Computacional.


Ameet Deshpande, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan y Karthik Narasimhan. 2023. Toxicidad en ChatGPT: análisis de modelos de lenguaje asignados por personas. Preimpresión de arXiv arXiv:2304.05335.


Cristina España-Bonet. 2023. Clasificación multilingüe de posturas políticas generales de los medios. La línea editorial de un periódico ChatGPT y Bard. Conjunto de datos sobre Zenodo, v1.0.


José Antonio García-Díaz, Ricardo Colomo-Palacios y Rafael Valencia-García. 2022. Identificación de rasgos psicográficos basados en la ideología política: un estudio de análisis de autores sobre los tweets de políticos españoles publicados en 2020. Future Gener. Computadora. Sistema, 130(C):59–74.


Xinyang Geng, Arnav Gudibande, Hao Liu, Eric Wallace, Pieter Abbeel, Sergey Levine y Dawn Song. 2023. Koala: un modelo de diálogo para la investigación académica. Entrada en el blog.


Google. 2023. Bard [modelo de lenguaje grande que sigue instrucciones].


Jochen Hartmann, Jasper Schwenzow y Maximilian Witte. 2023. La ideología política de la IA conversacional: evidencia convergente sobre la orientación proambiental y libertaria de izquierda de ChatGPT. Preimpresión de arXiv arXiv:2301.01768.


Xiaowei Huang, Wenjie Ruan, Wei Huang, Gaojie Jin, Yi Dong, Changshun Wu, Saddek Bensalem, Ronghui Mu, Yi Qi, Xingyu Zhao, et al. 2023. Una encuesta sobre seguridad y confiabilidad de modelos de lenguaje grandes a través de la lente de verificación y validación. preimpresión de arXiv arXiv:2305.11391.


Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson y Mor Naaman. 2023. La coescritura con modelos de lenguaje obstinados afecta las opiniones de los usuarios. En Actas de la Conferencia CHI de 2023 sobre factores humanos en sistemas informáticos, páginas 1–15, Nueva York, NY, EE. UU. Asociación para Maquinaria de Computación.


Johannes Kiesel, Maria Mestre, Rishabh Shukla, Emmanuel Vincent, Payam Adineh, David Corney, Benno Stein y Martin Potthast. 2019. Tarea 4 de SemEval2019: Detección de noticias hiperpartidistas. En Actas del 13º Taller Internacional sobre Evaluación Semántica, páginas 829–839, Minneapolis, Minnesota, EE. UU. Asociación de Lingüística Computacional.


Vivek Kulkarni, Junting Ye, Steve Skiena y William Yang Wang. 2018. Modelos multivista para la detección de ideología política en artículos noticiosos. En Actas de la Conferencia de 2018 sobre métodos empíricos en el procesamiento del lenguaje natural, páginas 3518–3527, Bruselas, Bélgica. Asociación de Lingüística Computacional.


Andrew Kachites McCallum. 2002. MALLET: Un kit de herramientas de aprendizaje automático para lenguajes. http://mallet.cs.umass.edu.


Fabio Motoki, Valdemar Pinho Neto y Víctor Rodrigues. 2023. Más humano que humano: medición del sesgo político de ChatGPT. Elección pública.


Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff y Colin Raffel. 2023. Generalización multilingüe mediante ajuste multitarea. En Actas de la 61ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos), páginas 15991–16111, Toronto, Canadá. Asociación de Lingüística Computacional.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, et al. 2021. WebGPT: respuestas a preguntas asistidas por navegador con comentarios humanos. Preimpresión de arXiv arXiv:2112.09332.


Roberto Navigli, Simone Conia y Björn Ross. 2023. Sesgos en modelos de lenguaje grandes: orígenes, inventario y discusión. J. Calidad de los datos y la información, 15(2).


OpenAI. 2023. ChatGPT [modelo de lenguaje grande que sigue instrucciones].


Pedro Javier Ortiz Suárez, Benoît Sagot y Laurent Romary. 2019. Canalizaciones asincrónicas para procesar grandes corpus en infraestructuras de recursos medios y bajos. Actas del taller sobre desafíos en la gestión de grandes corporaciones (CMLC-7) 2019. Cardiff, 22 de julio de 2019, páginas 9 a 16, Mannheim. Leibniz-Institut für Deutsche Sprache.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder , Paul F. Christiano, Jan Leike y Ryan Lowe. 2022. Entrenamiento de modelos de lenguaje para seguir instrucciones con retroalimentación humana. En Avances en sistemas de procesamiento de información neuronal, volumen 35, páginas 27730–27744. Curran asociados, Inc.


David Rozado. 2023. Peligro en la máquina: los peligros de los sesgos políticos y demográficos integrados en el sistema de inteligencia artificial. Instituto Manhattan, Resumen temático, páginas 1–16.


Daniel Russo, Salud María Jiménez-Zafra, José Antonio García-Díaz, Tommaso Caselli, L. Alfonso UreñaLópez y Rafael Valencia-García. 2023. PoliticIT en EVALITA 2023: Descripción general de la tarea de detección de ideología política en textos italianos. En la octava campaña de evaluación del procesamiento del lenguaje natural y las herramientas del habla para el italiano 2023, número 3473 en las actas del taller CEUR, Aquisgrán.


Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang y Tatsunori B. Hashimoto. 2023. Stanford Alpaca: un modelo LLaMA que sigue instrucciones. https://github.com/tatsu-lab/stanford_alpaca.


Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura , Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang , Aurelien Rodríguez, Robert Stojnic, Sergey Edunov y Thomas Scialom. 2023. Llama 2: base abierta y modelos de chat optimizados. Preimpresión de arXiv arXiv:2307.09288.


Eva AM van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij y Claudi L. Bockting. 2023. ChatGPT: cinco prioridades para la investigación. Naturaleza, 614(7947):224–226.


Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, et al. 2023a. DecodingTrust: una evaluación integral de la confiabilidad en los modelos GPT. Preimpresión de arXiv arXiv:2306.11698.


Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi y Hannaneh Hajishirzi. 2023b. Autoinstrucción: Alinear modelos de lenguaje con instrucciones autogeneradas. En Actas de la 61ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos), páginas 13484–13508, Toronto, Canadá. Asociación de Lingüística Computacional.


Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Atharva Naik, Arjun Ashok, Arut Selvan Dhanasekaran, Anjana Arunkumar, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia, Krima Doshi, Kuntal Kumar Pal, Maitreya Patel, Mehrad Moradshahi, Mihir Parmar, Mirali Purohit, Neeraj Varshney, Phani Rohitha Kaza, Pulkit Verma, Ravsehaj Singh Puri, Rushang Karia, Savan Doshi, Shailaja Keyur Sampat, Siddhartha Mishra, Sujan Reddy A, Sumanta Patro, Tanay Dixit y Xudong Shen. 2022. Super-NaturalInstructions: Generalización mediante instrucciones declarativas en más de 1600 tareas de PNL. En Actas de la Conferencia de 2022 sobre métodos empíricos en el procesamiento del lenguaje natural, páginas 5085–5109, Abu Dhabi, Emiratos Árabes Unidos. Asociación de Lingüística Computacional.


Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai y Quoc V Le. 2022. Los modelos de lenguaje perfeccionados son aprendices sin posibilidades. En Conferencia Internacional sobre Representaciones del Aprendizaje.