AI가 널리 채택됨에 따라 AI 사용을 통제, 관리 및 보호하기 위한 체계적인 가드레일이 필요합니다.
최근 세계에서는 디지털 환경의 모든 측면에 인공 지능 의 사용이 크게 증가하는 것을 목격했습니다. 자동화된 처리부터 고급 알고리즘까지, 인공지능은 점차 우리의 일상생활과 비즈니스 운영에 필수적인 부분이 되어가고 있습니다. 다양한 산업과 분야에서 인공지능 기술의 활용이 전례 없는 규모와 기하급수적으로 증가하고 있습니다. 이는 또한 사회에 심각한 영향을 미칠 뿐만 아니라 개인의 핵심 권리에 대한 위험과 위험을 초래했습니다.
인공 지능(AI)은 일반적으로 인간이 수행하는 작업을 수행하거나 인간의 인지 능력이 필요한 시스템을 만들기 위한 다양한 기계 학습, 논리, 지식 기반 기술 및 접근 방식을 포괄하는 광범위한 분야입니다. 여기에는 자연어 처리, 이미지 인식, 문제 해결, 의사 결정 등의 작업이 포함됩니다. 유럽 연합의 AI 법 및 AI 위험 관리에 관한 OECD 보고서에 따르면, AI 시스템은 명시적 또는 암시적 목표를 위해 입력으로부터 예측, 콘텐츠, 권장 사항과 같은 출력을 생성하는 방법을 추론하는 기계 기반 시스템입니다. 또는 물리적 또는 가상 환경에 영향을 미칠 수 있는 결정.
크게 두 가지로 분류됩니다.
GAN은 두 개의 신경망(생성기 및 판별기)으로 구성된 기계 학습 프레임워크입니다. 생성기는 입력된 무작위 노이즈를 대상 형식으로 변환하여 데이터를 생성합니다. 생성자만으로는 출력 품질을 평가할 수 없습니다. 판별기 모델이 등장하는 곳입니다. 판별기는 생성기에 의해 생성된 실제 데이터와 가짜 데이터를 구별하는 것을 목표로 합니다. 판별자는 실제 데이터와 생성자 데이터를 구별하도록 훈련되고, 생성자는 점점 더 현실적인 데이터를 만들어 판별자를 혼동하도록 훈련됩니다. 훈련이 진행됨에 따라 각 모델의 작업 성능이 점점 더 향상되어 생성기가 현실적으로 보이는 콘텐츠를 생성할 수 있게 됩니다. GAN의 과제는 GAN을 훈련시키는 것입니다. 예를 들어, GAN은 훈련 중에 모델 붕괴를 겪을 수 있습니다. 이 경우 생성기는 판별자를 혼란시키기에 충분하지만 유용할 만큼 충분하지 않은 소량의 다양한 샘플을 생성하는 방법만 학습합니다. 여기서 확산 모델이 등장합니다. 본질적으로 확산 모델은 노이즈 필드 버전에서 훈련 데이터를 복구하도록 훈련됩니다. 훈련 후 확산은 순수한 노이즈 입력에서 완전히 새로운 이미지를 생성할 수 있습니다. 점진적인 노이즈 제거 프로세스를 통해 반복적으로 이미지를 구성합니다.
다음으로, 자기회귀 모델은 통계에 뿌리를 두고 있습니다. 이전 요소를 조건으로 한 시퀀스에서 다음 요소의 확률을 모델링하여 데이터 시퀀스를 생성합니다. 그런 다음 다음 요소는 이 분포에서 무작위로 선택됩니다. "온도" 매개변수를 사용하면 결과가 더 결정적이거나 더 무작위적이 되도록 할 수 있으며 프로세스가 반복됩니다. 자동 회귀 모델의 인기 있는 신경망 구성 요소에는 LSTM 및 변환기(신경망이 매우 많은 양의 텍스트 훈련 데이터에서 패턴을 학습할 수 있게 함)가 포함됩니다. 단순히 공급된 시퀀스를 완료하는 대신 자동 회귀 모델에 정렬 단계를 추가합니다. 여기에서 모델은 사람의 피드백을 기반으로 특정 입력-출력 쌍을 다른 쌍보다 선호하도록 추가로 훈련됩니다. 예를 들어, LLM 조정에서는 모델에게 질문과 명령에 응답하는 방법을 성공적으로 가르쳤습니다(강화 학습).
데이터는 생성 AI 모델, 특히 LLM(대형 언어 모델) 개발에서 중심적인 역할을 합니다. 이러한 모델은 교육 및 개선을 위해 방대한 양의 데이터에 의존합니다. 예를 들어 OpenAI의 ChatGPT는 디지털화된 책과 Wikipedia 항목을 포함하여 인터넷에서 수집된 45테라바이트 이상의 텍스트 데이터로 구성된 광범위한 데이터 세트에 대해 교육을 받았습니다. 그러나 생성 AI의 데이터 수집에 대한 광범위한 필요성은 개인의 동의 없이 개인 데이터를 부주의하게 수집하고 사용하는 등 심각한 우려를 불러일으킬 수 있습니다. 또한 Google AI 연구원들은 공개적으로 사용 가능한 데이터에서 파생된 경우에도 종종 대규모이며 다양한 장소에서 소스를 제공하는 이러한 데이터 세트에 민감한 개인 정보가 포함될 수 있다는 점을 인정했습니다.
데이터 수집에는 크게 두 가지 일반적인 소스가 있습니다.
공개적으로 접근 가능한 데이터 - 웹 스크래핑은 데이터를 수집하는 데 사용되는 가장 일반적인 방법입니다. 여기에는 공개적으로 액세스할 수 있는 웹 페이지에서 대량의 정보를 추출하는 작업이 포함됩니다. 이 데이터는 교육 목적으로 활용되거나 판매용으로 변경되거나 다른 AI 개발자에게 무료로 제공될 수 있습니다. 웹 스크래핑을 통해 얻은 데이터에는 Facebook, Twitter, LinkedIn, Venmo 및 기타 웹사이트와 같은 소셜 미디어 플랫폼에서 사용자가 공유한 개인 정보가 포함되는 경우가 많습니다. 개인은 잠재적인 고용주와 연결하거나 새로운 친구를 사귀는 등 다양한 이유로 이러한 플랫폼에 개인 정보를 게시할 수 있지만 일반적으로 자신의 데이터를 생성 AI 모델 교육에 사용하려는 의도는 없습니다.
사용자 데이터 - 챗봇과 같은 생성 AI 애플리케이션을 사용하여 사용자가 공유한 데이터는 데이터 주체의 인지 또는 동의 없이 훈련을 위해 저장되고 사용될 수 있습니다. 예를 들어 의료 조언, 치료, 금융 서비스 및 기타 서비스를 제공하는 챗봇과 상호 작용하는 사용자는 민감한 개인 정보를 유출할 수 있습니다. 그러한 챗봇은 사용자 데이터가 "서비스 개발 및 개선"에 사용될 수 있다고 언급하는 서비스 약관을 제공할 수 있지만, 비평가들은 생성 AI 모델이 사용자로부터 긍정적인 동의를 구하거나 데이터의 수집, 사용 및 보유에 대한 명확한 공개를 제공해야 한다고 주장할 수 있습니다. 사용자 데이터.
또한 많은 조직에서는 제품이나 서비스를 향상시키기 위해 생성적 AI 모델을 제품이나 서비스에 내장했습니다. 경우에 따라 이러한 통합은 소비자의 개인 데이터를 포함하여 이러한 모델의 교육 및 미세 조정을 위한 데이터 소스 역할을 할 수도 있습니다.
잠재적인 위협은 다음과 같습니다:
생성적 AI 기술의 영향을 많이 받는 시대에 접어들면서, 법적, 윤리적 요구 사항을 충족하면서 데이터와 AI의 안전한 사용을 지원하려는 기업에게 인공 지능의 거버넌스가 점점 더 중요한 우선 순위가 되었습니다. 2023년 10월, 인공 지능의 "안전하고 보안되며 신뢰할 수 있는" 사용은 미국 바이든-해리스 행정부의 행정 명령을 보장했으며, 이는 세계 최초의 종합 AI 법안인 EU의 AI 법에 뒤이어 발표되었습니다. 책에 관한 법. 중국, 영국, 캐나다와 같은 다른 국가와 심지어 미국의 여러 주에서도 AI의 안전, 보안 및 투명성의 중요성을 강조하는 법안을 제안하거나 제정하면서 자체적인 선을 그었습니다.
제품 관리자와 일반 기업 리더는 AI를 비즈니스 관행에 통합하는 동시에 안전한 AI 사용 사고방식을 채택해야 합니다. 효과적인 AI 거버넌스는 통제와 감독을 제공하여 기업이 문서화되고 효율적이며 입증 가능한 방식으로 내부 정책과 외부 규정을 모두 준수하면서 책임감 있고 윤리적으로 AI 서비스를 개발하고 관리할 수 있도록 보장합니다. 이를 통해 기업은 신뢰를 유지하고 책임성을 더할 수 있습니다.
AI 거버넌스는 인공 지능의 사용을 통제, 관리 및 모니터링하는 프레임워크, 규칙, 표준, 법적 요구 사항, 정책 및 모범 사례를 부과하는 것을 의미합니다. 여기에는 법적, 윤리적 요구 사항을 충족하기 위해 AI 활동을 지시, 관리 및 모니터링하는 작업이 포함됩니다. 윤리적 측면에서 기업은 고객 신뢰를 구축하고 유지하기 위해 AI 모델의 높은 수준의 투명성, 안전 및 보안을 보장하는 데 중점을 두어야 합니다. 법적 측면에서 기업은 법적 요구 사항을 준수하고 규제 기관을 만족시켜야 합니다. 그렇지 않으면 상당한 금전적 처벌을 받고 브랜드 평판이 손상될 위험이 있습니다.
McKinsey 연구에서는 생성 AI가 향후 연간 가치에 2조 6천억~4조 4천억 달러에 기여할 수 있을 것으로 추정합니다. 그러나 이러한 잠재력을 실현하려면 조직은 투명하고 안전하며 신뢰할 수 있는 방식으로 AI를 구현해야 합니다. 실제로 Gartner는 안전하고 신뢰할 수 있는 AI를 성공적으로 운영하는 조직의 AI 채택 및 비즈니스 목표 달성이 50% 증가할 수 있다고 제안합니다.
여기에는 다음이 포함됩니다.
Gartner가 개발한 AI 거버넌스 프레임워크의 예로는 AI TRiSM(AI 신뢰, 위험 및 보안 관리 프레임워크)이 있습니다. 이 프레임워크는 AI 사용 시 위험 완화 및 데이터 개인정보 보호법 준수에 중점을 둡니다. 1) 설명 가능성 및 모델 모니터링 - 투명성과 신뢰성을 보장하기 위한 4가지 기둥이 있습니다. 2) 모델 운영 - 수명주기 전반에 걸쳐 AI 모델을 관리하기 위한 프로세스 및 시스템 개발이 포함됩니다. 3) AI 애플리케이션 보안 - 모델을 사이버 위협으로부터 안전하게 보호합니다. 4) 모델 개인 정보 보호 - 개인 정보 보호법(데이터 목적/저장 제한, 데이터 최소화/보호 원칙)에 따라 데이터 흐름을 관리하여 AI 모델을 훈련하거나 테스트하는 데 사용되는 데이터를 보호합니다. 전반적으로 TRiSM은 AI 모델의 신뢰성, 신뢰도, 보안 및 개인 정보 보호를 향상시키는 접근 방식입니다.
AI 시스템에 대한 향상된 가시성 - AI 모델을 검색하고 분류합니다. 여기서의 목표는 퍼블릭 클라우드, 프라이빗 환경 및 타사 앱에서 사용되는 모든 AI 모델의 세부 정보를 식별하고 기록하여 기업에 AI 사용에 대한 완전하고 포괄적인 개요를 제공하는 것입니다. 문서화되지 않았거나 승인되지 않은 AI 모델을 포함하여 모델의 목적, 교육 데이터, 아키텍처, 입력, 출력 및 상호 작용을 다룹니다. 이 정보의 중앙 집중식 카탈로그를 생성하면 AI의 투명성, 거버넌스 및 효과적인 사용이 향상되어 더 나은 의사결정과 위험 관리가 지원됩니다. 이는 전체 범위의 AI 애플리케이션을 공개하고 조직 내 운영 사일로를 무너뜨리는 데 필수적입니다.
종합 위험 평가 - 위험을 평가하고 AI 모델을 분류합니다. 여기서의 목표는 개발 전 및 개발 단계에서 AI 시스템의 위험을 평가하고 위험 완화 단계를 구현하는 것입니다. 여기에는 모델 설명, 용도, 제한 사항 및 윤리적 고려 사항을 포함하여 AI 모델에 대해 사전 정의된 위험 평가를 제공하는 모델 카드를 활용하는 것이 포함됩니다. 이러한 위험 등급은 독성, 악의적성, 편견, 저작권 고려 사항, 환각 위험은 물론 에너지 소비 및 추론 런타임 측면에서 모델 효율성까지 포함하는 포괄적인 세부 정보를 제공합니다. 이러한 등급을 기반으로 조직은 배포 및 사용을 승인할 모델, 차단할 모델, 사용하기 전에 추가 가드레일이 필요한 모델을 결정할 수 있습니다.
투명한 데이터 관행 - 데이터를 AI 흐름에 매핑하고 모니터링합니다. 데이터는 훈련, 조정, 추론을 위해 AI 시스템으로 흘러 들어가며, 데이터는 AI 시스템에서 출력으로 흘러나옵니다. 이를 통해 기업은 AI 모델과 AI 시스템에 대한 전체 맥락을 파악할 수 있습니다. 이는 AI 모델과 시스템을 관련 데이터 소스 및 시스템, 데이터 처리, SaaS 애플리케이션, 잠재적 위험 및 규정 준수 의무에 매핑하는 것입니다. 이 포괄적인 매핑을 통해 개인 정보 보호, 규정 준수, 보안 및 데이터 팀은 종속성을 식별하고 잠재적인 실패 지점을 정확히 찾아내며 AI 거버넌스가 사후 대응이 아닌 사전 대응이 되도록 보장할 수 있습니다.
강력한 보안 제어 - AI 제어에 데이터를 구현합니다. 이를 통해 AI 모델에 입력되고 생성되는 데이터의 보안 및 기밀성에 대한 엄격한 제어를 설정할 수 있습니다. 이러한 통제에는 각각 보안 프레임워크와 개인정보 보호법에 의해 규정된 데이터 보안 및 개인정보 보호 통제가 포함됩니다. 예를 들어, 데이터 세트에서 식별 가능한 값을 제거하기 위해 수정 또는 익명화 기술이 적용될 수 있습니다. 이는 기업 데이터 정책 및 사용자 권한에 맞춰 데이터를 AI 모델로 안전하게 수집하도록 보장합니다. 민감한 데이터가 LLM 모델에 유입되면 보안이 극도로 어려워집니다. 마찬가지로 기업 데이터가 벡터 형식으로 변환되면 보안이 더욱 어려워집니다. 데이터 생성 및 출력 측면에서 AI 상호 작용을 보호하려면 외부 공격, 악의적인 내부 사용 및 잘못된 구성에 대한 주의가 필요합니다. AI 보조자, 봇 및 에이전트와의 안전한 대화를 보장하려면 LLM 방화벽을 배포하여 유해한 프롬프트, 검색 및 응답을 필터링해야 합니다. 이러한 방화벽은 LLM용 OWASP 상위 10개 항목과 신속한 주입 공격 및 데이터 유출 공격을 포함하여 NIST AI RMF 프레임워크에서 강조된 다양한 취약점을 방어할 수 있어야 합니다.
규제 프레임워크를 성실히 준수 - 규정을 준수합니다. AI 시스템을 사용하는 기업은 AI 관련 규정 및 표준은 물론 AI 사용과 관련된 데이터 개인정보 보호 의무를 준수해야 합니다. 이처럼 까다로운 규정 준수 프로세스를 간소화하기 위해 기업은 AI에 맞춤화된 포괄적인 규정 준수 자동화를 활용할 수 있습니다. 이러한 시스템은 NIST AI RMF 및 EU AI Act를 포함하여 광범위한 글로벌 AI 규정 및 프레임워크 카탈로그를 제공합니다. 사용자가 각 프로젝트에 필요한 제어를 식별하고 적용할 수 있도록 프레임워크 내에서 고유한 AI 프로젝트 생성을 용이하게 합니다. 이 프로세스에는 규정 준수를 보장하기 위한 전체적인 접근 방식을 제공하는 이해관계자의 입력이 필요한 자동화된 검사와 평가가 모두 포함됩니다.
AI 거버넌스를 성공적으로 구현하는 기업은 다음과 같은 목표를 달성할 수 있습니다.
a) 승인된 AI 시스템과 승인되지 않은 AI 시스템에 대한 완전한 투명성
b) AI 위험에 대한 명확한 가시성
c) AI와 데이터의 매핑
d) 강력한 자동화 AI + 데이터 제어
e) 글로벌 AI 규정을 준수합니다.
전반적으로 우리는 AI의 안전한 사용을 보장해야 합니다. 안전을 최우선으로 생각하면 단기적으로는 사업 이익이 약간 낮아질 수 있지만 중장기적으로는 상당한 이익을 얻을 수 있습니다.