paint-brush
Mehrsprachige grobe politische Haltung Klassifizierung von Medien: Danksagungen und Referenzenby@mediabias

Mehrsprachige grobe politische Haltung Klassifizierung von Medien: Danksagungen und Referenzen

In diesem Artikel analysieren Forscher die Neutralität und Haltungsentwicklung von KI-generierten Nachrichtenartikeln in verschiedenen Sprachen anhand authentischer Bewertungen von Nachrichtenagenturen.
featured image - Mehrsprachige grobe politische Haltung Klassifizierung von Medien: Danksagungen und Referenzen
Media Bias [Deeply Researched Academic Papers] HackerNoon profile picture
0-item

Dieses Dokument ist auf arxiv unter der Lizenz CC BY-NC-SA 4.0 DEED verfügbar.

Autoren:

(1) Cristina España-Bonet, DFKI GmbH, Saarland Informatics Campus.

Linktabelle

Danksagung

Der Autor dankt den anonymen Gutachtern für aufschlussreiche Kommentare und Diskussionen. Eran dos ifs.

Verweise

Julien Abadji, Pedro Javier Ortiz Suárez, Laurent Romary und Benoît Sagot. 2021. Ungoliant: Eine optimierte Pipeline zur Generierung eines sehr großen mehrsprachigen Webkorpus. Proceedings des Workshops on Challenges in the Management of Large Corpora (CMLC-9) 2021. Limerick, 12. Juli 2021 (Online-Event), Seiten 1–9, Mannheim. LeibnizInstitut für Deutsche Sprache.


Dmitrii Aksenov, Peter Bourgonje, Karolina Zaczynska, Malte Ostendorff, Julian Moreno-Schneider und Georg Rehm. 2021. Feinkörnige Klassifizierung politischer Voreingenommenheit in deutschen Nachrichten: Ein Datensatz und erste Experimente. In Proceedings des 5. Workshops zu Online-Abuse und -Gefahren (WOAH 2021), Seiten 121–131, Online. Association for Computational Linguistics.


Ramy Baly, Giovanni Da San Martino, James Glass und Preslav Nakov. 2020. Wir können Ihre Voreingenommenheit erkennen: Vorhersage der politischen Ideologie von Nachrichtenartikeln. In Proceedings der 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), Seiten 4982–4991, Online. Association for Computational Linguistics.


Micah Carroll, Alan Chan, Henry Ashton und David Krueger. 2023. Charakterisierung von Manipulationen durch KI-Systeme. arXiv-Vorabdruck arXiv:2303.09387.


Lingjiao Chen, Matei Zaharia und James Zou. 2023. Wie verändert sich das Verhalten von ChatGPT im Laufe der Zeit? arXiv-Vorabdruck arXiv:2307.09009.


Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer und Veselin Stoyanov. 2020. Unüberwachtes sprachübergreifendes Repräsentationslernen im großen Maßstab. In Proceedings der 58. Jahrestagung der Association for Computational Linguistics, Seiten 8440–8451, Online. Association for Computational Linguistics.


Ameet Deshpande, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan und Karthik Narasimhan. 2023. Toxizität in ChatGPT: Analyse von Persona-zugewiesenen Sprachmodellen. arXiv-Vorabdruck arXiv:2304.05335.


Cristina España-Bonet. 2023. Mehrsprachige grobe Klassifizierung politischer Standpunkte von Medien. Die redaktionelle Linie einer ChatGPT- und Bard-Zeitung. Datensatz auf Zenodo, v1.0.


José Antonio García-Díaz, Ricardo Colomo-Palacios und Rafael Valencia-García. 2022. Identifizierung psychografischer Merkmale basierend auf politischer Ideologie: Eine Autorenanalysestudie zu Tweets spanischer Politiker aus dem Jahr 2020. Future Gener. Comput. Syst., 130(C):59–74.


Xinyang Geng, Arnav Gudibande, Hao Liu, Eric Wallace, Pieter Abbeel, Sergey Levine und Dawn Song. 2023. Koala: Ein Dialogmodell für die akademische Forschung. Blogbeitrag.


Google. 2023. Bard [Anweisungsfolgendes großes Sprachmodell].


Jochen Hartmann, Jasper Schwenzow und Maximilian Witte. 2023. Die politische Ideologie der Konversations-KI: Konvergierende Beweise für die umweltfreundliche, linkslibertäre Ausrichtung von ChatGPT. arXiv-Vorabdruck arXiv:2301.01768.


Xiaowei Huang, Wenjie Ruan, Wei Huang, Gaojie Jin, Yi Dong, Changshun Wu, Saddek Bensalem, Ronghui Mu, Yi Qi, Xingyu Zhao, et al. 2023. Eine Untersuchung zur Sicherheit und Vertrauenswürdigkeit großer Sprachmodelle aus der Perspektive der Verifizierung und Validierung. arXiv-Vorabdruck arXiv:2305.11391.


Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson und Mor Naaman. 2023. Das gemeinsame Schreiben mit eigensinnigen Sprachmodellen beeinflusst die Ansichten der Benutzer. In Proceedings der 2023 CHI Conference on Human Factors in Computing Systems, Seiten 1–15, New York, NY, USA. Association for Computing Machinery.


Johannes Kiesel, Maria Mestre, Rishabh Shukla, Emmanuel Vincent, Payam Adineh, David Corney, Benno Stein und Martin Potthast. 2019. SemEval2019 Aufgabe 4: Hyperpartisan News Detection. In Proceedings des 13. Internationalen Workshops zur semantischen Evaluation, Seiten 829–839, Minneapolis, Minnesota, USA. Association for Computational Linguistics.


Vivek Kulkarni, Junting Ye, Steve Skiena und William Yang Wang. 2018. Multi-View-Modelle zur Erkennung politischer Ideologie in Nachrichtenartikeln. In Proceedings der Konferenz 2018 über empirische Methoden in der Verarbeitung natürlicher Sprache, Seiten 3518–3527, Brüssel, Belgien. Association for Computational Linguistics.


Andrew Kachites McCallum. 2002. MALLET: Ein Toolkit für maschinelles Lernen für Sprachen. http://mallet.cs.umass.edu.


Fabio Motoki, Valdemar Pinho Neto und Victor Rodrigues. 2023. Mehr Mensch als Mensch: Messung der politischen Voreingenommenheit von ChatGPT. Öffentliche Wahl.


Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff und Colin Raffel. 2023. Crosslinguale Generalisierung durch Multitask-Feinabstimmung. In Proceedings der 61. Jahrestagung der Association for Computational Linguistics (Band 1: Lange Beiträge), Seiten 15991–16111, Toronto, Kanada. Association for Computational Linguistics.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, et al. 2021. WebGPT: Browsergestütztes Fragenbeantworten mit menschlichem Feedback. arXiv-Vorabdruck arXiv:2112.09332.


Roberto Navigli, Simone Conia und Björn Ross. 2023. Biases in Large Language Models: Ursprünge, Bestandsaufnahme und Diskussion. J. Data and Information Quality, 15(2).


OpenAI. 2023. ChatGPT [Anweisungsfolgendes großes Sprachmodell].


Pedro Javier Ortiz Suárez, Benoît Sagot und Laurent Romary. 2019. Asynchrone Pipelines zur Verarbeitung großer Korpora auf Infrastrukturen mit mittleren bis geringen Ressourcen. Proceedings des Workshops on Challenges in the Management of Large Corpora (CMLC-7) 2019. Cardiff, 22. Juli 2019, Seiten 9–16, Mannheim. Leibniz-Institut für Deutsche Sprache.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul F Christiano, Jan Leike und Ryan Lowe. 2022. Sprachmodelle trainieren, um Anweisungen mit menschlichem Feedback zu befolgen. In Advances in Neural Information Processing Systems, Band 35, Seiten 27730–27744. Curran Associates, Inc.


David Rozado. 2023. Gefahr in der Maschine: Die Gefahren politischer und demografischer Vorurteile in KI-Systemen. Manhatan Institute, Issue Brief, Seiten 1–16.


Daniel Russo, Salud María Jiménez-Zafra, José Antonio García-Díaz, Tommaso Caselli, L. Alfonso UreñaLópez und Rafael Valencia-García. 2023. PoliticIT bei EVALITA 2023: Überblick über die Aufgabe „Erkennung politischer Ideologien in italienischen Texten“. In Achte Evaluierungskampagne für natürliche Sprachverarbeitung und Sprachtools für Italienisch 2023, Nummer 3473 in den CEUR-Workshop-Proceedings, Aachen.


Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang und Tatsunori B. Hashimoto. 2023. Stanford Alpaca: Ein Anweisungs-folgendes LLaMA-Modell. https: //github.com/tatsu-lab/stanford_alpaca.


Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov und Thomas Scialom. 2023. Llama 2: Offene Grundlage und fein abgestimmte Chat-Modelle. arXiv-Vorabdruck arXiv:2307.09288.


Eva AM van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij und Claudi L. Bockting. 2023. ChatGPT: fünf Prioritäten für die Forschung. Nature, 614(7947):224–226.


Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer et al. 2023a. DecodingTrust: Eine umfassende Bewertung der Vertrauenswürdigkeit in GPT-Modellen. arXiv-Vorabdruck arXiv:2306.11698.


Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi und Hannaneh Hajishirzi. 2023b. Selbstunterricht: Sprachmodelle mit selbst generierten Anweisungen ausrichten. In Proceedings der 61. Jahrestagung der Association for Computational Linguistics (Band 1: Lange Beiträge), Seiten 13484–13508, Toronto, Kanada. Association for Computational Linguistics.


Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Atharva Naik, Arjun Ashok, Arut Selvan Dhanasekaran, Anjana Arunkumar, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia, Krima Doshi, Kuntal Kumar Pal, Maitreya Patel, Mehrad Moradshahi, Mihir Parmar, Mirali Purohit, Neeraj Varshney, Phani Rohitha Kaza, Pulkit Verma, Ravsehaj Singh Puri, Rushang Karia, Savan Doshi, Shailaja Keyur Sampat, Siddhartha Mishra, Sujan Reddy A, Sumanta Patro, Tanay Dixit und Xudong Shen. 2022. Super-NaturalInstructions: Generalisierung über deklarative Anweisungen bei über 1600 NLP-Aufgaben. In Proceedings der Konferenz 2022 über empirische Methoden in der Verarbeitung natürlicher Sprache, Seiten 5085–5109, Abu Dhabi, Vereinigte Arabische Emirate. Association for Computational Linguistics.


Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai und Quoc V Le. 2022. Fein abgestimmte Sprachmodelle sind Zero-Shot-Lerner. In der International Conference on Learning Representations.