paint-brush
人工智能版权之战:封闭与开源人工智能经过@futuristiclawyer
1,184 讀數
1,184 讀數

人工智能版权之战:封闭与开源人工智能

经过 Futuristic Lawyer6m2023/06/12
Read on Terminal Reader

太長; 讀書

英国律师克里斯·马门 (Chris Mammen) 在最近接受 Vice 采访时就人工智能生成的音乐解释说,法律进展缓慢,并通过类比演变。 “出现了新的东西,我们弄清楚它类似于什么,然后逐渐成为固定的法律”。 我们现在面临的问题是生成式人工智能——可以生成文本、图像、音乐或视频等创造性输出的人工智能模型——是很难进行类比。换句话说,将生成人工智能与我们已经知道和理解的事物联系起来。底层技术是如此复杂,以至于理解它在概念层面上的工作方式以及它应该如何被监管,需要一些认真的思维扩展。
featured image - 人工智能版权之战:封闭与开源人工智能
Futuristic Lawyer HackerNoon profile picture
0-item
1-item

英国律师克里斯·马门 (Chris Mammen) 在最近接受 Vice 采访时就人工智能生成的音乐解释说,法律进展缓慢,并通过类比演变。 “出现了新的东西,我们弄清楚它类似于什么,然后逐渐成为既定的法则”。

我们现在面临的问题是生成式人工智能——可以生成文本、图像、音乐或视频等创造性输出的人工智能模型——是很难进行类比。换句话说,将生成人工智能与我们已经知道和理解的事物联系起来。底层技术是如此复杂,以至于理解它在概念层面上的工作方式以及它应该如何被监管,需要一些认真的思维扩展。

与社交媒体和互联网一样,OpenAI 的 ChatGPT 或其文本到图像模型 DALL-E 2 等人工智能模型的使用简单得令人难以置信。然而,很明显,幕后发生了很多我们丝毫不了解的事情。用户体验与其背后的所有复杂技术之间的差距是犯罪和不道德行为可能会被忽视的地方。

加密货币中的黑盒效应

我们在金融界清楚地看到了这种“黑匣子效应”,最近在加密领域。包括我在内的很少有加密支持者对加密的工作原理有深入的技术理解,我们也不知道中心化交易所是如何运作的。在传统金融中,这是我们通常依赖政府担保和监督的地方。但在像加密这样新兴和复杂的行业中,几乎没有。相对广泛的采用、技术复杂性、缺乏监督以及开发人员和用户之间的知识差距,为大规模犯罪和剥削奠定了完美的条件。去年,加密货币交易所一连串倒闭, 2022 年超过 30 亿美元从 DeFi 平台被盗,数十万人陷入财务困境。

人工智能行业当然与加密行业有很大不同,但存在相同的犯罪和剥削条件。人工智能模型被广泛采用,比加密更容易使用,技术更复杂,没有太多监督,用户和开发人员之间的知识差距可以说比加密更大。幸运的是,有许多关于 AI 的危险和风险的宣传活动,其中类似的加密活动淹没在噪音中。

版权问题

在生成式 AI 模型中使用受版权保护的材料是现有法律和框架受到挑战的领域之一。在我上周的帖子中,我写了关于欧盟对基础模型的解释。本周我将重点介绍闭源 AI 模型与开源 AI 模型之间的区别,并从两个不同的角度介绍 Stable Diffusion,一种流行的开源 AI 图像模型,该模型在今年早些时候遭到版权诉讼。我计划在接下来的几周内发表另一篇关于诉讼及其对版权法的影响的帖子。

开源与闭源

就时间、金钱和计算资源而言,训练基础模型是一件代价高昂的事情。一般来说,只有财力雄厚的 BigTech 公司才能负担得起初始投资。出于同样的原因,基础模型背后的公司通常对闭源 AI 感兴趣。如果竞争对手可以获得所有成分并使用他们的秘方,那么数百万美元的开发和培训成本将难以收回。

一个重要的例外是 Meta 的 LLaMA,Mark Zuckerberg 和 Meta 的 AI 研究团队有争议地决定将其公开LLaMA是一个大型语言模型 (LLM),以从 7B 到 65B 参数的不同大小发布。即使是中小型版本 LLaMA-13B,也可以胜过 OpenAI 的 GPT-3——尽管要小 10 倍。就在三年前,GPT-3 还是开创性的、市场领先的。

Meta 的首席 AI 科学家 Yann LeCun 表示,“将获胜的平台将是开放的”。他认为,人工智能的进步以这种方式更快,消费者和政府将拒绝接受人工智能,除非它不受谷歌和 Meta 等公司的控制。

反对开源 AI(这意味着提供源代码)的反对意见是,不良行为者可以使用代码构建恶意应用程序、传播错误信息、实施欺诈、网络犯罪和许多其他不良行为。马克·扎克伯格 (Mark Zuckerberg)最近收到了两位美国参议员的来信,他们批评将 LLaMA 向公众开放的决定。参议员们在信中得出结论,Meta“对其可预见的广泛传播的后果缺乏彻底的、公开的考虑”最终是“对公众的伤害”。

走向开源

今天,发布不到三个月,一堆开源模型就站在了 LLaMa 的肩膀上。例如, Vicuna-13B是一个开源聊天机器人,它通过微调 LLaMA 对从ShareGPT (一种允许用户与 ChatGPT 分享他们的对话的 Chrome 扩展)收集的用户共享对话进行训练。根据 GPT-4 的评估,Vicuna-13B 仅需 300 美元左右的训练成本,就能达到 OpenAI 的 ChatGPT 和 Google 的 Bard 90% 以上的质量!

无论竞争和安全问题如何,开源 AI 都有强大的吸引力。经常发布新的和改进的模型。在HuggingFace Open LLM 排行榜上,目前表现最好的模型是Falcon 40B ,它最近击败了 Meta 的 LLaMA。猎鹰40B是由阿布扎比技术创新研究所在亚马逊的帮助下开发的。

关于开源开发是否有可能在未来主导生成人工智能的使用,目前尚无定论。在SemiAnalysis 发布的一份泄露的谷歌内部文件中,一位谷歌高级工程师认为谷歌和 OpenAI“没有护城河”,最终将被开源 AI 击败。他写道,“开源模型更快、更可定制、更私密,而且功能更强大”。

稳定性 AI 和稳定扩散

Stability AI是处于开源 AI 前沿的公司之一。该公司由前对冲基金经理 Emad Mostaque 创立。根据其网站,Stability AI 自 2021 年推出以来,已在全球范围内聚集了超过 140.000 名开发人员和七个研究中心。研究界为不同的目的开发 AI 模型,例如成像、语言、代码、音频、视频、3D 内容、设计、生物技术和其他科学研究。

迄今为止,Stability AI 最著名的产品是图像模型 Stable Diffusion。 Stable Diffusion 是一种 AI 图像模型,可以根据文本提示生成或调整图像。它于 2022 年 8 月发布,就在 OpenAI 的病毒式互联网轰动DALL-E 2私下向候补名单上的 100 万用户发布后不久。 AI 社区中的许多人认为 Stable Diffusion 是一个革命性的里程碑。它不仅匹配甚至超过现代、大型和封闭的文本到图像模型(例如DALL-E 2或 Google 的Imagen)的功能,而且它是开源的。

根据Stable Diffusions 许可,任何人都可以使用该模型创建商业应用程序、研究其架构、在其上构建并在法律、道德和常识范围内修改其设计。与闭源图像模型不同,Stable Diffusion 可以下载并在普通游戏 PC 上本地运行。对于没有编码技能的临时用户,也可以通过网络应用程序DreamStudio或新的开源网络应用程序StableStudio访问 Stable Diffusion。

附带一提,Stable Diffusion 实际上是由慕尼黑 Ludwig-Maximilians-Universität 的一组研究人员开发的,而 Stability AI 资助了计算资源来训练模型。由于慕尼黑大学完成了导致稳定扩散的所有繁重工作,稳定性因获得过多不当的荣誉而受到批评。在福布斯上周日发表的一篇文章中,Stability 创始人 Emad Mosque 被描绘成一个病态的夸大其词者,有说谎的倾向。 Stable Diffusion 背后的研究团队负责人 Björn Ommer 教授告诉福布斯,他希望宣传他实验室的工作,但当时他所在大学的整个新闻部门都在休假(这种事情只能发生在公立大学)。

稳定传播与版权风暴

Stable Diffusion 的开放性是给研究人员以及政府、竞争对手、监管机构和嗜血的版权倡导者的礼物。在最后一类中,我们发现 Matthew Butterick 和他的法律团队在针对 Stability AI、MidJourney 和 DeviantArt 的集体诉讼中代表三名独立艺术家。

律师马修·巴特里克 (Matthew Butterick) 表示:“ [Stable Diffusion] 是一种寄生虫,如果任其扩散,将会对艺术家造成无法弥补的伤害,无论是现在还是将来。”

我认为 Butterick 对稳定扩散和现代 AI 图像模型的描述在某种意义上是正确的。他们确实从原创作品中吸取了创造力,将其大规模地融合在一起,并威胁到艺术家的生计,这些艺术家在不情愿和不知情的情况下以微小的贡献帮助训练了模型。

然而,集体诉讼充斥着如此多的法律和技术上的不准确、误解和缺点,以至于我只能怀疑法律团队在撰写传票初稿时是否疯了。另一种理论是,巴特里克和他的同事故意试图歪曲该技术的工作原理,以混淆公众或法官。很难说。

在我的下一篇文章中,我们将进一步研究这起无聊的诉讼,并解释为什么它没有在正确的地方解决版权之痒。

也发布在这里