여기에서 미국 국제 사이버 공간 및 디지털 정책 전략의 모든 부분을 살펴볼 수 있습니다. 이 부분은 38개 중 19개입니다.
디지털 연대의 가장 시급한 과제 중 하나는 AI와 같은 중요 기술과 최신 기술을 관리하기 위한 공통 접근 방식을 개발하는 것입니다. 혁신의 속도, 경쟁의 규모, 그리고 우리의 가치, 보안 및 번영에 대한 이해 관계는 공동의 행동을 요구합니다. AI 기술을 사용하면 디지털 경제의 다른 부분에서 공유 원칙과 상호 운용 가능한 규제 접근 방식을 개발하는 능력을 느리게 만드는 좁은 이해관계를 추구하거나 시간을 낭비할 여유가 없게 됩니다.
AI의 개발, 배포 및 사용에 대한 공유 가치와 거버넌스 원칙을 형성하는 것이 미국 디지털 외교의 중심이 되고 있습니다. 미국은 G7, 인공 지능에 관한 글로벌 파트너십, 유럽 평의회, OECD, UN, 유네스코 및 기타 포럼에서 동맹국, 파트너, 민간 부문, 시민 사회, 기술 커뮤니티 및 기타 이해관계자를 참여시키고 있습니다. AI의 위험을 관리하고 그 혜택이 널리 배포되도록 보장합니다. 또한 첨단 AI 기술 시스템을 측정, 평가, 검증하는 데 필요한 과학 연구 및 인프라에 투자하기 위해 협력해야 합니다.
2023년 7월 바이든 대통령은 AI 기술의 안전하고 투명하며 개발을 촉진하겠다는 7개 주요 AI 기업의 자발적인 약속을 발표했습니다. 9월에는 8개 회사(외국 기반 회사 1개 포함)가 추가로 이 약속에 서명했습니다. 미국은 생성 AI를 다루기 위해 일본이 주도한 G7 히로시마 AI 프로세스를 통해 자발적인 약속을 국제화하고 확대했으며 지도자들은 2023년 10월 고급 AI 시스템을 개발하는 조직을 위한 국제 행동 강령을 발표했습니다. 우리는 계속해서 수용을 확대하기 위해 노력하고 있습니다. G7 회원국을 넘어 더 많은 국가와 기업의 행동 강령.
미국은 영국 AI 안전 서밋(UK AI Safety Summit)에 다른 27개 국가와 합류하고 최첨단 AI 기술을 개발하는 주체의 투명성과 책임을 장려하는 블레츨리 선언(Bletchley Declaration)에 서명했습니다. 미국과 영국은 또한 AI 안전의 과학적 토대에 대한 글로벌 합의를 향한 첫 번째 단계로 AI 위험을 측정, 평가 및 해결하는 과학을 발전시키는 각자의 AI 안전 연구소 간의 양해각서에 서명했습니다. 이러한 노력은 안전하고 신뢰할 수 있는 AI 기술을 도입하기 위한 기술적으로 엄격한 지침을 제공함으로써 국가 정부의 역할을 설명하고, 국제 협력을 촉진하고, 혁신을 장려합니다. 동시에 USAID와 기타 여러 국제 개발 기부자들은 아프리카와 세계 기타 지역의 저소득 및 중간 소득 국가에서 안전하고 신뢰할 수 있는 AI 개발을 촉진하기 위해 파트너십을 체결했습니다.
2023년 10월 바이든 대통령은 인공 지능의 안전하고 신뢰할 수 있는 개발 및 사용에 관한 행정 명령을 발표했습니다. 이 명령은 AI 안전 및 보안에 대한 새로운 표준을 개발하기 위한 프로세스를 확립하고 시민의 개인 정보를 보호하고 혁신과 경쟁을 촉진하며 형평성과 인권을 증진하기 위해 노력합니다. 이 명령은 국무부에 AI 문제에 대한 미국의 해외 리더십을 강화하는 임무를 부여했습니다. 국무부와 USAID는 상무부와 협력하여 AI의 이점을 활용하고 위험을 관리하기 위해 글로벌 개발 플레이북에 AI를 구축하려는 노력을 주도하고 있습니다. 이와 관련하여 국무부는 정보 공유를 촉진하고 정부가 제작한 진짜 콘텐츠에 라벨을 붙이고 합성 콘텐츠를 탐지하기 위한 전 세계적인 노력을 결집하는 것을 목표로 합성 콘텐츠의 탐지, 인증, 라벨링에 관한 부처 간 태스크포스를 이끌 계획입니다. 또한, 국무부는 국토안보부(DHS)와 협력하여 중요 인프라 시스템에 AI를 통합하거나 악의적인 사용으로 인해 발생하는 잠재적인 중요 인프라 중단을 예방, 대응 및 복구하는 데 도움을 주기 위해 국제 파트너를 참여시키고 있습니다. 그러한 시스템에 대한 AI의. 또한 국무부와 USAID는 국립표준기술연구소(NIST), 국립과학재단(NSF), 에너지부 등 기관 간 파트너와 협력하여 AI 및 글로벌 환경에 대한 인권 위험 관리 프레임워크를 개발하고 있습니다. AI 연구 아젠다.
국무부는 또한 AI와 자율성의 책임 있는 군사적 사용에 관한 정치적 선언에 대한 광범위한 지원을 구축하고 있습니다. 미국이 계속 지원할 특정 재래식 무기에 관한 협약(CCW)의 틀에 따라 제네바에서 중요한 논의가 진행되고 있지만, 이러한 논의의 범위는 AI의 군사적 사용 가능성 중 하나, 즉 자율 무기 시스템에만 적용됩니다. 정치적 선언은 AI 기술의 모든 군사적 적용을 포괄하는 원칙과 모범 사례를 명확히 하기 위한 첫 번째 노력입니다.
여기에서 계속 읽으세요.
이 게시물은 원래미국 국무부가 2024년 5월 6일에 게시했습니다.