著者:
(1)ハミド・レザ・サイードニア、タルビアト・モダレス大学情報科学・知識研究科、イラン・イスラム共和国テヘラン
(2)エラヘ・ホセイニ、アルザフラ大学心理学・教育科学部情報科学・知識研究科、イラン・イスラム共和国テヘラン
(3)シャディ・アブドリ、モントリオール大学情報科学部、カナダ、モントリオール
(4)マルセル・オースルース、レスター大学経営学部(英国レスター)およびブカレスト経済大学(ルーマニアブカレスト)。
RQ 4: AI を活用した科学計量学、ウェブ計量学、書誌計量学の将来
RQ 5: AI を用いた科学計量学、ウェブ計量学、文献計量学の倫理的考慮
しかしながら、このように概説した肯定的な側面とは別に、科学計量学、ウェブ計量学、書誌計量学における人工知能 (AI) の使用は、慎重に対処すべき重要な倫理的考慮事項を引き起こします。
AIアルゴリズムは、個人情報や機密情報を含む大量のデータへのアクセスを必要とすることが多い[73]。プライバシーを保護し、不正アクセスを防ぐために、適切なデータ保護対策を講じることが重要だ[74]。データの匿名化と暗号化技術を採用し、関連するデータ保護規制を遵守する必要がある[75]。
AIアルゴリズムは、意図的または不注意によりバイアスがかかりやすく、不公平または差別的な結果につながる可能性があります[17、76]。既存のバイアスを永続させないようにするには、AIモデルが多様で代表的なデータセットでトレーニングされていることを確認することが重要です[77]。発生する可能性のあるバイアスを特定して対処するために、AIシステムを定期的に監視および監査する必要があります[78]。
AIアルゴリズムは複雑で不透明な場合があり、どのようにして決定に至ったのか理解することが困難になることがある[79]。そのため、科学計量学、ウェブ計量学、書誌計量学で使用されるAIモデルの透明性と説明可能性を促進することが重要である。研究者とユーザーは、使用されるデータ、採用されたアルゴリズム、AIシステムの意思決定プロセスに関する情報にアクセスできる必要がある[76, 79]。
AIシステムがより自律的になるにつれて、説明責任と責任の明確な線引きを確立することが不可欠になります[80]。開発者、研究者、ユーザーは、これらの分野でAIが責任を持って倫理的に使用されるようにするための役割と責任を認識する必要があります。これには、AIの使用から生じる可能性のある偏見、エラー、または意図しない結果に対処することが含まれます。
個人データが関係する場合には、個人からインフォームドコンセントを得ることが極めて重要である[78]。研究者や組織は、個人が自分のデータがどのように使用されるかを理解し、同意を与えたり撤回したりできるようにするために、強力な同意管理プロセスを導入する必要がある。
さらに、科学計量学、ウェブ計量学、書誌計量学における AI の使用は、雇用や社会全体に影響を及ぼす可能性があります。仕事への潜在的な影響、リソースの配分、およびより広範な社会的影響を考慮することが重要です。マイナスの影響を軽減し、公正かつ公平な移行を確保するための対策を講じる必要があります。AI システムの定期的な監視と評価を実施して、そのパフォーマンスを評価し、偏見や倫理上の懸念を特定し、必要な改善を行う必要があります。この継続的な監視と評価のプロセスには、学際的なコラボレーションと利害関係者との関与が必要です。
こうした倫理的配慮に対処するには、さまざまな分野の研究者、政策立案者、倫理学者、関係者を巻き込んだ学際的なアプローチが必要です。科学計量学、ウェブ計量学、書誌計量学において AI が責任を持って倫理的に使用されるようにするには、オープンな対話、透明性、継続的な評価が不可欠です。
この論文は、CC BY 4.0 DEED ライセンスの下でarxiv で公開されています。