영국에 거주하는 변호사 Chris Mammen 은 최근 Vice와의 AI 생성 음악 인터뷰 에서 법이 천천히 움직이며 비유를 통해 진화한다고 설명합니다. “ 뭔가 새로운 것이 나타나면 우리는 그것이 무엇과 유사한지 알아내고 그것이 점차적으로 확정된 법칙이 됩니다 .”
현재 우리가 생성적 AI(텍스트, 이미지, 음악, 비디오 등 창의적인 결과물을 생성할 수 있는 AI 모델)에서 직면하고 있는 문제는 유추를 찾는 것이 어렵다는 것입니다. 즉, 생성적 AI를 우리가 이미 알고 이해하고 있는 것과 연관시키는 것입니다. 기본 기술은 너무 복잡하여 개념적 수준에서 작동하는 방식과 규제 방법을 이해하려면 진지한 사고 확장이 필요합니다.
소셜 미디어 및 인터넷과 마찬가지로 OpenAI의 ChatGPT 또는 텍스트-이미지 모델 DALL-E 2와 같은 AI 모델은 믿을 수 없을 정도로 사용이 간단합니다. 그러나 우리가 조금도 이해하지 못하는 내부에는 분명히 많은 일이 일어나고 있습니다. 사용자 경험과 그 아래에 있는 복잡하고 기술적인 모든 것 사이의 격차는 범죄적이고 비윤리적인 것들이 눈에 띄지 않을 수 있는 곳입니다.
우리는 금융계, 최근 암호화폐 부문에서 이러한 “블랙박스 효과”를 분명히 목격했습니다. 저를 포함한 암호화폐 지지자들 중 암호화폐가 어떻게 작동하는지에 대해 깊은 기술적 이해를 갖고 있는 사람은 거의 없었고, 우리는 중앙 집중식 거래소가 어떻게 운영되는지 몰랐습니다. 전통적인 금융에서는 이것이 일반적으로 정부의 보증과 감독에 의존하는 부분입니다. 그러나 암호화폐처럼 새롭고 복잡한 산업에서는 거의 아무것도 없었습니다. 상대적으로 광범위한 채택, 기술적 복잡성, 감독 부족, 개발자와 사용자 간의 지식 격차 등은 범죄와 착취를 위한 완벽한 조건을 마련했습니다. 작년에는 암호화폐 거래소가 연쇄적으로 붕괴했고, 2022년에는 DeFi 플랫폼에서 30억 달러 이상이 도난당했으며 , 수십만 명이 재정적 파멸에 빠졌습니다.
물론 AI 산업은 암호화폐 산업과 매우 다르지만 범죄와 착취에 대한 동일한 조건이 존재합니다. AI 모델은 널리 채택되고 암호화폐보다 사용하기 쉽고 기술적으로 더 복잡하며 감독이 많지 않으며 사용자와 개발자 간의 지식 격차는 암호화폐보다 훨씬 더 넓습니다. 운 좋게도 AI의 위험성에 대한 인식 캠페인이 많이 있지만 암호화폐 분야의 유사한 캠페인은 소음에 빠져 있습니다.
생성 AI 모델에서 저작권이 있는 자료를 사용하는 것은 기존 법률과 프레임워크가 도전받는 영역 중 하나입니다. 지난주 포스팅에서 EU의 기본 모델 해석에 대해 썼습니다. 이번 주에는 비공개 소스 AI 모델과 오픈 소스 AI 모델의 차이점에 중점을 두고 올해 초 저작권 소송을 당한 인기 오픈 소스 AI 이미지 모델인 Stable Diffusion을 두 가지 각도에서 소개하겠습니다. 저는 앞으로 몇 주 안에 소송과 저작권법에 미치는 영향에 대한 또 다른 게시물을 게시할 계획입니다.
기초 모델 교육은 시간, 비용, 계산 리소스 측면에서 비용이 많이 드는 작업입니다. 일반적으로 자금이 넉넉한 빅테크 기업만이 초기 투자를 할 여유가 있습니다. 마찬가지로, 기초 모델을 뒷받침하는 회사는 일반적으로 AI 폐쇄 소싱에 관심이 있습니다. 수백만 달러에 달하는 개발 및 교육 비용은 경쟁자가 모든 재료에 접근하고 비법을 사용할 수 있다면 회수하기 어렵습니다.
한 가지 중요한 예외는 Mark Zuckerberg와 Meta의 AI 연구팀이 논란의 여지가 있어 공개하기로 결정한 Meta의 LLaMA입니다. LLaMA 는 7B에서 65B 매개변수까지 다양한 크기로 출시된 LLM(대형 언어 모델)입니다. 중소형 버전인 LLaMA-13B도 10배 더 작음에도 불구하고 OpenAI의 GPT-3보다 성능이 뛰어납니다. GPT-3는 불과 3년 전만 해도 획기적이고 시장을 선도했습니다.
Meta의 수석 AI 과학자 Yann LeCun은 "승리할 플랫폼은 공개될 것"이라고 말합니다. 그는 AI의 발전이 이런 식으로 더 빠르며 소비자와 정부는 AI가 Google 및 Meta와 같은 회사의 통제를 벗어나지 않는 한 AI 수용을 거부할 것이라고 주장합니다.
오픈 소스 AI(소스 코드를 제공한다는 의미)에 대한 반론은 악의적인 행위자가 코드를 사용하여 악의적인 애플리케이션을 구축하고, 잘못된 정보를 퍼뜨리고, 사기, 사이버 범죄 및 기타 많은 나쁜 일을 저지를 수 있다는 것입니다. Mark Zuckerberg는 최근 LLaMA를 대중에게 공개하기로 한 결정을 비판하는 두 명의 미국 상원의원으로부터 편지를 받았습니다 . 상원의원들은 서신에서 메타의 “ 예측 가능한 광범위한 확산의 결과에 대한 철저하고 공개적인 고려 부족 ”이 궁극적으로 “ 대중에게 해를 끼치는 것”이라고 결론지었습니다.
출시된 지 3개월도 채 되지 않은 오늘날, 수많은 오픈 소스 모델이 LLaMa의 어깨 위에 서 있습니다. 예를 들어 Vicuna-13B 는 ShareGPT (사용자가 ChatGPT와 대화를 공유할 수 있는 Chrome 확장 프로그램)에서 수집한 사용자 공유 대화에 대한 LLaMA를 미세 조정하여 훈련된 오픈 소스 챗봇입니다. GPT-4의 평가에 따르면 Vicuna-13B는 약 $300의 교육 비용으로 OpenAI의 ChatGPT 및 Google의 Bard 품질의 90% 이상을 달성합니다!
경쟁과 안전 문제와 상관없이 오픈소스 AI를 향한 강력한 관심이 있습니다. 새롭고 개선된 모델이 자주 출시됩니다. HuggingFace Open LLM 리더보드 에서 현재 가장 성과가 좋은 모델은 최근 Meta의 LLaMA를 제치고 Falcon 40B 입니다. Falcon 40B는 Amazon의 도움을 받아 Abu Dhabi의 Technology Innovation Institute에서 개발되었습니다.
배심원단은 오픈 소스 개발이 미래에 생성 AI의 사용을 잠재적으로 지배할 수 있는지 여부에 대해 아직 판단하지 않았습니다. SemiAnalytics가 게시한 유출된 Google 내부 문서에서 Google 수석 엔지니어는 Google과 OpenAI에는 "해자가 없으며" 결국 오픈 소스 AI에 의해 경쟁에서 압도될 것이라고 주장했습니다. 그는 “ 오픈 소스 모델은 더 빠르고, 더 사용자 정의가 가능하며, 더 프라이빗하고, 더 많은 능력을 갖추고 있습니다 ”라고 썼습니다.
오픈소스 AI의 최전선에 있는 기업 중 하나가 Stability AI 이다. 이 회사는 전직 헤지펀드 매니저 Emad Mostaque가 설립했습니다. 웹사이트에 따르면 Stability AI는 2021년 출시 이후 전 세계 140,000명 이상의 개발자와 7개 연구 허브로 구성된 군대를 확보했습니다. 연구 커뮤니티는 이미징, 언어, 코드, 오디오, 비디오, 3D 콘텐츠, 디자인, 생명 공학 및 기타 과학 연구와 같은 다양한 목적을 위해 AI 모델을 개발합니다.
현재까지 가장 잘 알려진 Stability AI 제품은 Stable Diffusion 이미지 모델입니다. Stable Diffusion은 텍스트 프롬프트에서 이미지를 생성하거나 조정할 수 있는 AI 이미지 모델입니다. OpenAI의 바이러스성 인터넷 센세이션 DALL-E 2가 대기자 명단에 있는 100만 명의 사용자에게 비공개로 출시된 지 얼마 되지 않은 2022년 8월에 출시 되었습니다. AI 커뮤니티의 많은 사람들은 Stable Diffusion을 혁명적인 이정표 로 여겼습니다. DALL-E 2 또는 Google의 Imagen 과 같은 현대적이고 대규모의 폐쇄형 텍스트-이미지 모델의 기능과 일치하거나 이를 초과했을 뿐만 아니라 오픈 소스였습니다.
Stable Diffusions 라이센스 에 따르면 누구나 이 모델을 사용하여 상용 애플리케이션을 만들고, 아키텍처를 연구하고, 이를 기반으로 구축하고, 법률, 윤리 및 상식의 범위 내에서 디자인을 수정할 수 있습니다. 비공개 소스 이미지 모델과 달리 Stable Diffusion은 일반 게임 PC에서 로컬로 다운로드하여 실행할 수 있습니다. 코딩 기술이 없는 일반 사용자의 경우 웹 앱 DreamStudio 또는 새로운 오픈 소스 웹 앱 StableStudio를 통해 Stable Diffusion에 액세스할 수도 있습니다.
부수적으로 Stable Diffusion은 실제로 뮌헨에 있는 Ludwig-Maximilians-Universität의 연구원 팀에 의해 개발되었으며 Stability AI는 모델을 훈련하기 위한 컴퓨팅 리소스에 자금을 지원했습니다. 뮌헨 대학이 Stable Diffusion을 초래하는 모든 무거운 작업을 수행했기 때문에 Stability는 과도한 신용을 너무 많이 받았다는 비판을 받았습니다. 지난 일요일 포브스가 발표한 기사 에서 Stability의 설립자 Emad Mosque는 거짓말을 하는 경향이 있는 병리학적 과장자로 묘사되었습니다. Stable Diffusion의 연구팀장인 Dr. Björn Ommer 교수는 Forbes에 자신의 연구실 작업을 홍보하고 싶었지만 당시 대학의 언론 부서 전체가 휴가 중이었다고 말했습니다(이런 일은 공립 대학에서만 일어날 수 있습니다).
Stable Diffusion의 개방성은 연구자들뿐만 아니라 정부, 경쟁업체, 규제 기관 및 피에 굶주린 저작권 옹호자들에게도 선물입니다. 마지막 범주에는 Stability AI, MidJourney 및 DeviantArt를 상대로 한 집단 소송에서 세 명의 독립 아티스트를 대리하는 Matthew Butterick과 그의 법무팀이 있습니다.
변호사 Matthew Butterick에 따르면, " [Stable Diffusion]은 증식하도록 허용할 경우 현재와 미래에 예술가들에게 돌이킬 수 없는 해를 끼칠 기생충입니다."
나는 Butterick이 Stable Diffusion과 최신 AI 이미지 모델을 특성화한 것에 대해 어떤 의미에서는 옳다고 주장하고 싶습니다. 그들은 원본 작업에서 창의성을 빨아들이고, 그것을 모두 대규모로 으깨고, 본의 아니게 무의식적으로 소액 기여로 모델 훈련을 도운 예술가들의 생계를 위협합니다.
그러나 집단소송은 법무팀이 소환장 초안을 작성할 때 제정신이 아니었는지 의구심이 들 정도로 법적, 기술적 부정확성과 오해, 단점이 너무 많다. 또 다른 이론은 Butterick과 동료들이 대중이나 판사를 혼란스럽게 하기 위해 기술이 어떻게 작동하는지 의도적으로 잘못 표현하려고 한다는 것입니다. 말하기 어렵다.
다음 포스팅에서는 이 경솔한 소송에 대해 좀 더 자세히 살펴보고 왜 저작권의 가려움증이 제대로 해결되지 않는지 설명하겠습니다.
여기에도 게시되었습니다 .