Авторы:
(1) Хамид Реза Саидния, факультет информатики и исследований знаний, Университет Тарбиат Модарес, Тегеран, Исламская Республика Иран;
(2) Элахе Хоссейни, факультет информатики и исследований знаний, факультет психологии и педагогических наук, Университет Альзахра, Тегеран, Исламская Республика Иран;
(3) Шади Абдоли, факультет информатики, Монреальский университет, Монреаль, Канада
(4) Марсель Ауслоос, Школа бизнеса, Лестерский университет, Лестер, Великобритания и Бухарестский университет экономических исследований, Бухарест, Румыния.
Вопрос 4: Будущее наукометрики, вебометрики и библиометрики с искусственным интеллектом
Вопрос 5: Этические аспекты наукометрии, вебометрики и библиометрии с использованием ИИ
Заключение, ограничения и ссылки
Тем не менее, помимо отмеченных таким образом положительных аспектов, использование искусственного интеллекта (ИИ) в наукометрике, вебометрике и библиометрике вызывает важные этические соображения, которые следует тщательно учитывать.
Алгоритмы ИИ часто требуют доступа к большим объемам данных, включая личную и конфиденциальную информацию [73]. Крайне важно обеспечить наличие надлежащих мер защиты данных для защиты конфиденциальности и предотвращения несанкционированного доступа [74]. Необходимо использовать методы анонимизации и шифрования данных, а также соблюдать соответствующие правила защиты данных [75].
Алгоритмы искусственного интеллекта могут быть преднамеренно или непреднамеренно склонны к предвзятости, что может привести к несправедливым или дискриминационным результатам [17, 76]. Важно обеспечить, чтобы модели ИИ обучались на разнообразных и репрезентативных наборах данных, чтобы избежать сохранения существующих предубеждений [77]. Необходимо проводить регулярный мониторинг и аудит систем ИИ для выявления и устранения любых возможных предубеждений [78].
Иногда алгоритмы ИИ могут быть сложными и непрозрачными, что затрудняет понимание того, как они приходят к своим решениям [79]. Таким образом, важно способствовать прозрачности и объяснимости моделей ИИ, используемых в наукометрии, вебометрике и библиометрии. Исследователи и пользователи должны иметь доступ к информации об используемых данных, используемых алгоритмах и процессах принятия решений системами ИИ [76, 79].
Поскольку системы ИИ становятся более автономными, важно установить четкие границы подотчетности и ответственности [80]. Разработчики, исследователи и пользователи должны осознавать свою роль и ответственность в обеспечении ответственного и этичного использования ИИ в этих областях. Это включает в себя устранение любых потенциальных предубеждений, ошибок или непредвиденных последствий, которые могут возникнуть в результате использования ИИ.
В случаях, когда речь идет о персональных данных, решающее значение имеет получение информированного согласия от отдельных лиц [78]. Исследователи и организации должны иметь надежные процессы управления согласием, чтобы гарантировать, что люди понимают, как их данные будут использоваться, и имеют возможность предоставить или отозвать согласие.
Более того, использование ИИ в наукометрике, вебометрике и библиометрии может иметь последствия для занятости и общества в целом. Важно учитывать потенциальное влияние на рабочие места, распределение ресурсов и более широкие социальные последствия. Необходимо принять меры для смягчения любых негативных последствий и обеспечения справедливого и равноправного перехода. Необходимо проводить регулярный мониторинг и оценку систем ИИ для оценки их эффективности, выявления любых предубеждений или этических проблем и внесения необходимых улучшений. Этот постоянный процесс мониторинга и оценки должен включать междисциплинарное сотрудничество и взаимодействие с заинтересованными сторонами.
Решение этих этических вопросов требует междисциплинарного подхода с участием исследователей, политиков, специалистов по этике и заинтересованных сторон из различных областей. Открытый диалог, прозрачность и постоянная оценка необходимы для обеспечения ответственного и этичного использования ИИ в наукометрии, вебометрике и библиометрии.
Этот документ доступен на arxiv под лицензией CC BY 4.0 DEED.