ChatGPT와 기타 챗봇이 인공 지능(AI) 도구에 대한 우리의 이해와 상호 작용을 재구성했다는 것은 더 이상 뉴스가 아닙니다. 지난해 11월 ChatGPT가 출시되면서 인터넷이 열광하면서 많은 사람들이 처음으로 AI를 알게 되었습니다.
OpenAI의 챗봇과 관련된 즐거움을 무시하지 않고 우리는 매일 AI 도구와 운영에 노출됩니다. 예를 들어, Google의 검색 엔진과 지도는 AI를 사용하여 쿼리를 처리하고 몇 초 만에 응답을 대량으로 생성한다는 사실을 생각해 보세요.
ChatGPT 및 기타 AI 도구로 수행할 수 있는 작업의 가능성은 전례 없는 즐거움을 불러일으켰습니다. 전문가에게만 제공되는 콘텐츠 및 기술 문서를 생성하는 이러한 도구의 사례가 있습니다.
ChatGPT는 코드 작성, 맬웨어 개발, 아이디어 생성, 언어 번역 등에 사용되었습니다. 2022년에는 Midjourney의 사용이 전년 대비 증가했습니다.
이러한 도구의 기능은 종말에 대한 두려움을 불러일으킵니다. 우려되는 부분이 있습니다
2023년 1월 13일에 제기된 소송은 Stability AI, Midjourney 및 DeviantArt를 고발했습니다.
AI는 미래입니다. 우리는 좋은 점을 포용하고 나쁜 점의 영향을 최소화하기 위한 조치를 취하는 방법을 배워야 합니다. 그러나 AI가 계속해서 현대 사회를 혼란에 빠뜨릴 것이라는 데에는 의심의 여지가 없습니다.
최근 설문 조사에 따르면
AI 글로벌 시장 매출은 2022년 1,360억 달러에서 2022년 1,360억 달러로 성장할 것으로 예상됩니다.
AI 이점에는 작업 자동화(30%), 비용 절감(54%), IT 성능(53%), 더 나은 고객 경험(48%)이 포함되었습니다.
ChatGPT 및 기타 도구의 많은 경이로움을 고려하면 AI 도구가 마법과 과학의 융합이라고 가정하기 쉽습니다. 다행히도 그렇지 않습니다.
AI는 패턴 인식, 경험을 통한 학습, 문제 해결, 효과적인 의사 결정 등 인간 지능이 필요한 작업을 수행하도록 설계된 데이터 기반 실험실 생성 수학적 모델입니다.
AI의 발전은 컴퓨터 과학, 신경 과학, 심리학과 같은 분야의 발전에 의해 주도됩니다. 이는 인간의 지능이 기계에 의해 모델링되고 시뮬레이션될 수 있다는 생각에 기반을 두고 있습니다.
AI에 사용되는 핵심 기술 및 기술로는 기계 학습, 자연어 처리, 로봇공학 등이 있습니다.
"가비지 인, 쓰레기 아웃"이라는 개념은 AI에 매우 적합합니다. 우리가 계속해서 AI 시스템을 개발하고 의존함에 따라 우리는 이러한 시스템에 편견이 있을 가능성도 있다는 점을 인식해야 합니다.
AI 자체가 문제라고 지적하기는 쉽지만, 실제로 문제는 이러한 시스템을 개발하고 훈련시키는 사람들의 인간적 편견입니다. AI 시스템은 개발자가 원하는 대로 정확하게 작동합니다.
AI 연구자의 69%는 다음과 같이 믿고 있습니다.
AI에 대한 인간의 편견은 AI 훈련에 사용되는 데이터부터 시스템 자체의 의사결정 프로세스에 이르기까지 다양한 방식으로 나타날 수 있습니다.
예를 들어, AI 시스템이 특정 특정 그룹의 사람들로 불균형하게 구성된 데이터 세트에 대해 교육을 받은 경우 다른 그룹을 정확하게 이해하고 결정을 내리지 못할 수 있습니다.
마찬가지로, AI 시스템이 특정 가정이나 고정관념을 기반으로 결정을 내리도록 설계되면 사회에 해로운 편견이 영속될 수 있습니다.
AI의 가장 큰 문제 중 하나는 훈련된 데이터가 해당 데이터를 수집하고 관리하는 사람들의 편견을 반영할 수 있다는 사실입니다.
예를 들어, 얼굴 인식 시스템을 훈련하는 데 사용되는 데이터 세트가 대부분 밝은 피부를 가진 사람의 이미지로 구성되어 있는 경우, 더 어두운 피부색을 가진 사람의 얼굴을 인식하려고 하면 시스템 성능이 저하될 가능성이 높습니다.
이는 실제 결과를 초래할 수 있는 편견의 한 형태입니다.
그러나 편향될 수 있는 것은 데이터뿐만 아니라 이러한 시스템을 만들고 훈련하는 사람들도 자신의 무의식적인 편견을 통해 편견을 도입할 수 있습니다.
예를 들어,
74%의 조직이 AI의 신뢰성과 책임감을 보장하기 위한 조치를 취하지 않았기 때문에 사회적으로 책임감 있는 AI 도구를 만드는 것이 시급한 것은 공동의 책임입니다. 이는 편견의 가능성을 식별하고 이를 완화하기 위해 적극적으로 노력하는 것부터 시작됩니다.
이는 AI에 종사하는 사람들로 구성된 팀을 다양화하고 다양한 관점과 경험이 표현되도록 보장하는 것을 의미합니다.
AI 훈련에 사용되는 데이터가 다양하고 AI가 제공할 인구를 대표하는지 확인하는 것이 중요합니다. 여기에는 기존 편견이나 고정관념이 지속되지 않도록 데이터를 신중하게 선택하고 관리하는 작업이 포함됩니다.
또한 다양한 그룹의 사람들에 대한 데이터의 잠재적 영향을 고려하고 다양한 관점에서 의견을 얻어 데이터가 포괄적이고 공정한지 확인하는 것이 중요합니다.
AI 시스템 설계는 투명하고 설명 가능해야 합니다. 이는 AI 시스템의 의사결정 프로세스가 인간이 명확하고 쉽게 이해할 수 있어야 잠재적인 편견이나 문제를 식별하고 해결할 수 있어야 함을 의미합니다.
AI 시스템의 성능을 정기적으로 평가하고 모니터링하여 시스템이 의도한 대로 작동하고 유해한 편견을 지속시키지 않는지 확인하는 것이 중요합니다. 여기에는 AI 시스템을 훈련하는 데 사용되는 데이터는 물론 AI 모델의 결정과 동작을 정기적으로 분석하는 것이 포함됩니다.
정부는 성장과 발전을 방해하지 않고 사회적으로 책임 있는 AI 개발과 사용을 시행하는 법률과 규정을 제정해야 합니다.
AI는 우리가 살고, 일하고, 사회화하는 방식에 혁명을 일으킬 잠재력을 가지고 있습니다. 그러나 우리가 AI 시스템을 계속 개발하고 의존함에 따라 편견의 가능성을 해결하는 것도 중요합니다. 진짜 관심사는 AI 자체가 아니라 AI를 개발하고 훈련시키는 사람들의 편견이라는 점을 인식해야 합니다.
이 문제를 인식하고 이를 완화하기 위한 조치를 취함으로써 우리는 AI의 미래가 모두에게 이익이 되는 미래가 되도록 할 수 있습니다.
목표는 사회의 이익을 위한 AI 개발이어야 합니다. 이러한 목표를 달성하려면 정부, 개발자, 사용자의 공동 책임이 필요합니다. 정부는 AI 시스템이 사회적으로 책임 있는 방식으로 개발되도록 보장하는 규정을 시행해야 합니다.
개발자는 다양성, 투명성, 책임성을 채택하여 편견을 방지해야 합니다. 의도하지 않은 편견과 남용을 방지하기 위해 AI 시스템의 성능을 정기적으로 평가하고 모니터링해야 합니다.
또한 대중은 AI를 어떻게 사용하는지에 대한 책임이 있다는 것을 이해해야 합니다. 사회적으로 무책임한 AI 사용은 모두가 지양해야 합니다.