paint-brush
多言語メディアの粗い政治的立場の分類: 謝辞と参考文献@mediabias
103 測定値

多言語メディアの粗い政治的立場の分類: 謝辞と参考文献

長すぎる; 読むには

この論文では、研究者らは、信頼できるニュースメディアの評価を使用して、AI が生成したニュース記事の中立性と言語間のスタンスの進化を分析しています。
featured image - 多言語メディアの粗い政治的立場の分類: 謝辞と参考文献
Tech Media Bias [Research Publication] HackerNoon profile picture
0-item

この論文は、CC BY-NC-SA 4.0 DEED ライセンスの下で arxiv で公開されています。

著者:

(1)クリスティーナ・エスパーニャ・ボネット、DFKI GmbH、ザールラント情報学キャンパス。

リンク一覧

謝辞

著者は、洞察に満ちたコメントと議論をしてくれた匿名の査読者に感謝します。Eran dos ifs。

参考文献

Julien Abadji、Pedro Javier Ortiz Suárez、Laurent Romary、Benoît Sagot。2021年。Ungoliant: 非常に大規模な多言語ウェブコーパスを生成するための最適化されたパイプライン。大規模コーパス管理の課題に関するワークショップ (CMLC-9) 2021 の議事録。リムリック、2021年7月12日 (オンラインイベント)、1~9ページ、マンハイム。LeibnizInstitut für Deutsche Sprache。


Dmitrii Aksenov、Peter Bourgonje、Karolina Zaczynska、Malte Ostendorff、Julian Moreno-Schneider、Georg Rehm。2021年。「ドイツのニュースにおける政治的偏向のきめ細かな分類:データセットと初期実験」。第5回オンライン虐待および危害に関するワークショップ(WOAH 2021)の議事録、121~131ページ、オンライン。計算言語学協会。


Ramy Baly、Giovanni Da San Martino、James Glass、Preslav Nakov。2020年。「私たちはあなたの偏見を検出できます:ニュース記事の政治的イデオロギーを予測します。」2020年自然言語処理における経験的手法に関する会議(EMNLP)の議事録、4982〜4991ページ、オンライン。計算言語学協会。


Micah Carroll、Alan Chan、Henry Ashton、David Krueger。2023年。AIシステムによる操作の特徴付け。arXivプレプリントarXiv:2303.09387。


Lingjiao Chen、Matei Zaharia、James Zou。2023. ChatGPT の動作は時間の経過とともにどのように変化していますか? arXiv プレプリント arXiv:2307.09009。


Alexis Conneau、Kartikay Khandelwal、Naman Goyal、Vishrav Chaudhary、Guillaume Wenzek、Francisco Guzmán、Edouard Grave、Myle Ott、Luke Zettlemoyer、およびVeselin Stoyanov。2020。大規模な教師なしクロスリンガル表現学習。計算言語学会第58回年次会議の議事録、8440〜8451ページ、オンライン。計算言語学会。


Ameet Deshpande、Vishvak Murahari、Tanmay Rajpurohit、Ashwin Kalyan、Karthik Narasimhan です。 2023. ChatGPT の毒性: ペルソナ割り当て言語モデルの分析。 arXivプレプリントarXiv:2304.05335。


Cristina España-Bonet。2023年。メディアの多言語粗政治的立場分類。ChatGPTとBard新聞の編集方針。Zenodoのデータセット、v1.0。


ホセ・アントニオ・ガルシア・ディアス、リカルド・コロモ・パラシオス、ラファエル・バレンシア・ガルシア。2022年。「政治イデオロギーに基づく心理的特性の識別:2020年に投稿されたスペイン政治家のツイートに関する著者分析研究」Future Gener. Comput. Syst.、130(C):59–74。


Xinyang Geng、Arnav Gudibande、Hao Liu、Eric Wallace、Pieter Abbeel、Sergey Levine、Dawn Song。2023年。コアラ:学術研究のための対話モデル。ブログ投稿。


Google. 2023. Bard [命令追従型大規模言語モデル].


Jochen Hartmann、Jasper Schwenzow、Maximilian Witte。2023年。会話型AIの政治的イデオロギー:ChatGPTの環境保護主義的、左派リバタリアン志向に関する収束的証拠。arXivプレプリントarXiv:2301.01768。


Xiaowei Huang、Wenjie Ruan、Wei Huang、Gaojie Jin、Yi Dong、Changshun Wu、Saddek Bensalem、Ronghui Mu、Yi Qi、Xingyu Zhao 他。 2023. 検証と妥当性確認の観点から見た大規模言語モデルの安全性と信頼性の調査。 arXivプレプリントarXiv:2305.11391。


Maurice Jakesch、Advait Bhat、Daniel Buschek、Lior Zalmanson、および Mor Naaman。2023。意見の強い言語モデルを使用した共同執筆は、ユーザーの見解に影響します。2023 CHI コンピューティング システムにおける人間工学に関する会議の議事録、1~15 ページ、ニューヨーク、ニューヨーク、米国。Association for Computing Machinery。


Johannes Kiesel、Maria Mestre、Rishabh Shukla、Emmanuel Vincent、Payam Adineh、David Corney、Benno Stein、Martin Potthast。2019年。SemEval2019タスク4:超党派ニュース検出。第13回国際意味評価ワークショップの議事録、829~839ページ、ミネソタ州ミネアポリス、米国。計算言語学協会。


Vivek Kulkarni、Junting Ye、Steve Skiena、William Yang Wang。2018。ニュース記事の政治的イデオロギー検出のためのマルチビューモデル。2018年自然言語処理における経験的手法に関する会議の議事録、3518~3527ページ、ブリュッセル、ベルギー。計算言語学協会。


Andrew Kachites McCallum. 2002. MALLET: 言語ツールキットのための機械学習。http://mallet.cs.umass.edu.


Fabio Motoki、Valdemar Pinho Neto、Victor Rodrigues。2023年。「人間よりも人間的:ChatGPTの政治的偏見の測定」Public Choice。


Niklas Muennighoff、Thomas Wang、Lintang Sutawika、Adam Roberts、Stella Biderman、Teven Le Scao、M Saiful Bari、Sheng Shen、Zheng Xin Yong、Hailey Schoelkopf、Xiangru Tang、Dragomir Radev、Alham Fikri Aji、Khalid Almubarak、Samuel Albanie、Zaid Alyafeai、Albert Webson、Edward Raff、Colin Raffel。2023年。マルチタスクの微調整による言語間の一般化。計算言語学協会第61回年次会議の議事録(第1巻:長文論文)、15991〜16111ページ、トロント、カナダ。計算言語学協会。


Reiichiro Nakano、Jacob Hilton、Suchir Balaji、Jeff Wu、Long Ouyang、Christina Kim、Christopher Hesse、Shantanu Jain、Vineet Kosaraju、William Saunders、他 2021. WebGPT: 人間によるフィードバックによるブラウザ支援の質問応答。arXiv プレプリント arXiv:2112.09332。


Roberto Navigli、Simone Conia、Björn Ross。2023年。「大規模言語モデルにおけるバイアス:起源、インベントリ、および議論」。J. Data and Information Quality、15(2)。


OpenAI. 2023. ChatGPT [命令追従型大規模言語モデル]。


Pedro Javier Ortiz Suárez、Benoît Sagot、Laurent Romary。2019。中~低リソースのインフラストラクチャで大規模なコーパスを処理するための非同期パイプライン。大規模コーパス管理の課題に関するワークショップ (CMLC-7) 2019 の議事録。カーディフ、2019 年 7 月 22 日、9~16 ページ、マンハイム。ライプニッツ・インスティテュート・フューア・ドイツ語研究所。


Long Ouyang、Jeffrey Wu、Xu Jiang、Diogo Almeida、Carroll Wainwright、Pamela Mishkin、Chong Zhang、Sandhini Agarwal、Katarina Slama、Alex Ray、John Schulman、Jacob Hilton、Fraser Kelton、Luke Miller、Maddie Simens、Amanda Askell、Peter Welinder、Paul F Christiano、Jan Leike、Ryan Lowe。2022年。人間のフィードバックによる指示に従う言語モデルのトレーニング。Advances in Neural Information Processing Systems、第35巻、27730~27744ページ。Curran Associates、Inc。


デビッド・ロザード。2023年。「機械の危険性:AIシステムに組み込まれた政治的および人口統計的偏見の危険性」マンハッタン研究所、Issue Brief、1~16ページ。


Daniel Russo、Salud María Jiménez-Zafra、José Antonio García-Díaz、Tommaso Caselli、L. Alfonso UreñaLópez、Rafael Valencia-García。2023年。EVALITA 2023のPoliticIT:イタリア語テキストタスクにおける政治イデオロギー検出の概要。イタリア語2023の自然言語処理および音声ツールの第8回評価キャンペーン、CEURワークショップ議事録第3473号、アーヘン。


Rohan Taori、Ishaan Gulrajani、Tianyi Zhang、Yann Dubois、Xuechen Li、Carlos Guestrin、Percy Liang、および Tatsunori B. Hashimoto。2023。Stanford Alpaca:指示に従う LLaMA モデル。https://github.com/tatsu-lab/stanford_alpaca。


ヒューゴ・トゥーヴロン、ルイ・マーティン、ケビン・ストーン、ピーター・アルバート、アムジャド・アルマハイリ、ヤスミン・ババエイ、ニコライ・バシュリコフ、ソウミヤ・バトラ、プラジワル・バルガヴァ、シュルティ・ボサレ、ダン・バイケル、ルーカス・ブレッチャー、クリスチャン・カントン・フェラー、モヤ・チェン、ギエム・ククルル、デビッド・エシオブ、ジュード・フェルナンデス、ジェレミー・フー、ウェンイン・フー、ブライアン・フラー、シンシア・ガオ、ヴェダヌジ・ゴスワミ、ナマン・ゴヤル、アンソニー・ハーツホーン、サガール・ホセイニ、ルイ・ホウ、ハカン・イナン、マルチン・カルダス、ヴィクトル・ケルケズ、マディアン・カブサ、イザベル・クロウマン、アルテム・コレネフ、プニット・シン・コウラ、マリーアン・ラショー、ティボー・ラヴリル、ジェニャ・リー、ダイアナ・リスコビッチ、インハイ・ルー、ユーニン・マオ、ザビエルMartinet、Todor Mihaylov、Pushkar Mishra、Igor Moly- bog、Yixin Nie、Andrew Poulton、Jeremy Reizenstein、Rashi Rungta、Kalyan Saladi、Alan Schelten、Ruan Silva、Eric Michael Smith、Ranjan Subramanian、Xiaoqing Ellen Tan、Binh Tang、Ross Taylor、Adina Williams、Jian Xiang Kuan、Puxin Xu、Zheng Yan、Iliyan Zarov、Yuchen Zhang、Angela Fan、Melanie Kambadur、Sharan Narang、Aurelien Rodriguez、Robert Stojnic、Sergey Edunov、およびThomas Scialom。2023。Llama 2:オープンファンデーションと微調整されたチャットモデル。arXivプレプリントarXiv:2307.09288。


Eva AM van Dis、Johan Bollen、Willem Zuidema、Robert van Rooij、Claudi L. Bockting。 2023年。ChatGPT:研究の5つの優先事項。ネイチャー、614(7947):224–226.


Boxin Wang、Weixin Chen、Hengzhi Pei、Chulin Xie、Mintong Kang、Chenhui Zhang、Chejian Xu、Zidi Xiong、Ritik Dutta、Rylan Schaeffer 他。 2023a. DecodingTrust: GPT モデルの信頼性の包括的な評価。 arXivプレプリントarXiv:2306.11698。


Yizhong Wang、Yeganeh Kordi、Swaroop Mishra、Alisa Liu、Noah A. Smith、Daniel Khashabi、Hannaneh Hajishirzi。2023b。「Self-instruct: 自己生成の指示による言語モデルの調整」。カナダ、トロントで開催された計算言語学会第61回年次会議の議事録(第1巻:長文論文)、13484~13508ページ。計算言語学会。


Yizhong Wang、Swaroop Mishra、Pegah Alipoormolabashi、Yeganeh Kordi、Amirreza Mirzaei、Atharva Naik、Arjun Ashok、Arut Selvan Dhanasekaran、Anjana Arunkumar、David Stap、Eshaan Pathak、Giannis Karamanolakis、Haizhi Lai、Ishan Purohit、Ishani Mondal、Jacob Anderson、Kirby Kuznia、Krima Doshi、Kuntal Kumar Pal、Maitreya Patel、Mehrad Moradshahi、Mihir Parmar、Mirali Purohit、Neeraj Varshney、Phani Rohitha Kaza、Pulkit Verma、Ravsehaj Singh Puri、Rushang Karia、Savan Doshi、Shailaja Keyur Sampat、Siddhartha Mishra、Sujan Reddy A、Sumanta Patro、Tanay Dixit、および Xudong Shen。 2022. Super-NaturalInstructions: 1600以上のNLPタスクに対する宣言的命令による一般化。2022年自然言語処理における経験的手法に関する会議の議事録、5085~5109ページ、アブダビ、アラブ首長国連邦。計算言語学協会。


Jason Wei、Maarten Bosma、Vincent Zhao、Kelvin Guu、Adams Wei Yu、Brian Lester、Nan Du、Andrew M. Dai、Quoc V Le。2022年。微調整された言語モデルはゼロショット学習者です。国際学習表現会議。