저자:
(1) Hamid Reza Saeidnia, 이란 이슬람 공화국 테헤란의 Tarbiat Modares 대학교 정보 과학 및 지식 연구과;
(2) Elaheh Hosseini, 이란 이슬람 공화국 테헤란의 Alzahra 대학교 심리학 및 교육 과학부 정보 과학 및 지식 연구과;
(3) Shadi Abdoli, 캐나다 몬트리올 소재 몬트리올 대학교 정보과학부
(4) Marcel Ausloos, 영국 레스터 소재 레스터 대학교 경영대학원 및 루마니아 부쿠레슈티 소재 부쿠레슈티 경제 연구 대학교.
RQ 4: AI를 통한 과학계량학, 웹 측정학, 계량서지학의 미래
RQ 5: AI를 이용한 과학계측학, 웹계량학, 계량서지학의 윤리적 고려사항
그럼에도 불구하고, 이렇게 설명된 긍정적인 측면 외에도, 과학계량학, 웹계측학, 계량서지학에서 인공 지능(AI)을 사용하는 것은 신중하게 다루어야 할 중요한 윤리적 고려 사항을 제기합니다.
AI 알고리즘은 개인 정보와 민감한 정보를 포함하여 대량의 데이터에 액세스해야 하는 경우가 많습니다[73]. 개인 정보를 보호하고 무단 액세스를 방지하려면 적절한 데이터 보호 조치가 마련되어 있는지 확인하는 것이 중요합니다[74]. 데이터 익명화 및 암호화 기술을 사용해야 하며 관련 데이터 보호 규정을 준수해야 합니다[75].
AI 알고리즘은 의도적으로 또는 의도치 않게 편견을 갖게 되어 불공정하거나 차별적인 결과를 초래할 수 있습니다[17, 76]. 기존 편견이 지속되지 않도록 AI 모델이 다양하고 대표적인 데이터 세트에 대해 훈련되도록 하는 것이 중요합니다[77]. 발생할 수 있는 편견을 식별하고 해결하기 위해 AI 시스템에 대한 정기적인 모니터링 및 감사를 수행해야 합니다[78].
때로는 AI 알고리즘이 복잡하고 불투명하여 결정에 도달하는 방법을 이해하기 어려울 수 있습니다[79]. 따라서 과학계량학, 웹계량학, 계량서지학에 사용되는 AI 모델의 투명성과 설명 가능성을 높이는 것이 중요합니다. 연구자와 사용자는 사용된 데이터, 사용된 알고리즘, AI 시스템의 의사결정 프로세스에 대한 정보에 접근할 수 있어야 합니다[76, 79].
AI 시스템이 더욱 자율화됨에 따라 책임과 책임에 대한 명확한 경계를 설정하는 것이 필수적입니다[80]. 개발자, 연구자, 사용자는 해당 분야에서 AI를 책임감 있고 윤리적으로 사용하는 데 있어 자신의 역할과 책임을 인식해야 합니다. 여기에는 AI 사용으로 인해 발생할 수 있는 잠재적인 편견, 오류 또는 의도하지 않은 결과를 해결하는 것이 포함됩니다.
개인 데이터가 관련된 경우 개인으로부터 사전 동의를 얻는 것이 중요합니다[78]. 연구자와 조직은 개인이 자신의 데이터가 어떻게 사용되는지 이해하고 동의를 제공하거나 철회할 수 있는 능력을 갖도록 보장하기 위해 강력한 동의 관리 프로세스를 마련해야 합니다.
더욱이, 과학계량학, 웹계측학, 계량서지학에서 AI의 사용은 고용과 사회 전체에 영향을 미칠 수 있습니다. 일자리, 자원 분배, 더 넓은 사회적 영향에 대한 잠재적 영향을 고려하는 것이 중요합니다. 부정적인 영향을 완화하고 공정하고 공평한 전환을 보장하기 위한 조치를 취해야 합니다. AI 시스템의 성능을 평가하고 편견이나 윤리적 문제를 식별하며 필요한 개선을 수행하기 위해 AI 시스템에 대한 정기적인 모니터링 및 평가를 수행해야 합니다. 이러한 지속적인 모니터링 및 평가 프로세스에는 학제간 협력과 이해관계자와의 참여가 포함되어야 합니다.
이러한 윤리적 고려 사항을 해결하려면 다양한 분야의 연구자, 정책 입안자, 윤리학자 및 이해관계자가 참여하는 학제간 접근 방식이 필요합니다. 과학계량학, 웹계량학, 계량서지학에서 AI가 책임감 있고 윤리적으로 사용되도록 하려면 공개 대화, 투명성, 지속적인 평가가 필수적입니다.
이 문서는 CC BY 4.0 DEED 라이선스에 따라 arxiv에서 볼 수 있습니다.