paint-brush
创造性的人工智能“动摇”了人类的核心,需要更广泛的伦理讨论经过@latner
8,646 讀數
8,646 讀數

创造性的人工智能“动摇”了人类的核心,需要更广泛的伦理讨论

经过 Avi Lanter8m2023/01/09
Read on Terminal Reader

太長; 讀書

我们正在进入一个新时代,创意机器的时代。我们的工作、创造和互动方式将会改变。这带来了巨大的新可能性,但也带来了威胁,艺术家们开始抗议侵犯版权,引发了动荡。然而,其影响比保护工作和版权要广泛得多。创造力是我们人性的核心,如果点击一下就能毫不费力地产生创造力,那么我们的人性就会受到质疑。为了在这个新时代运作,我们需要在更广泛的意义上讨论道德人工智能。我们还需要引入正确的政策:新的许可类型、人工智能的公有制以及考虑训练人工智能和人工智能推理的真实成本。
featured image - 创造性的人工智能“动摇”了人类的核心,需要更广泛的伦理讨论
Avi Lanter HackerNoon profile picture
0-item

在过去的十年里,人工智能一直致力于自动化最平凡和重复的任务。人类仍然负责进行创造性工作和思考。人和机器之间的界限很清楚。机器可以计算,但人类编写算法。或者人工智能可以帮助修复人类拍摄的照片。这种类型的自动化带来的机遇多于挑战。作为一个社会,它承诺如果我们能够正确地利用它,它将腾出更多时间用于人际关系、自我表达和创造力。那些赋予我们意义的东西,是我们人性的核心。


然后最近,尤其是在过去的一年里,生成式 AI 取得了成果。 Stable Diffusion、Dalle、Midjourney 等可以根据文本提示创建专业图像,GPT-chat 可以回答问题和撰写论文。机器变得有创意了!这将动摇人与机器之间的界限。这将使我们质疑我们人性的核心。在一个机器可以毫不费力地画出每幅画和写出任何文章的世界里,我们将如何运作?我们看重什么,什么会给我们意义?为什么还要费心去努力呢?

这不是为了保护工作

对于我们中间的艺术家来说,还有一个额外的讽刺转折。生成式人工智能不仅会威胁到他们的生计,让他们质疑自己生命追求的意义,而且机器也会通过复制他们的工作来做到这一点。任何放在网上的艺术家作品都会在未经版权批准的情况下被废弃,经过培训并复制成新的变体。如果你从一个人那里抄袭是抄袭,但如果你从所有人那里抄袭,则可能被认为是抄袭合理使用并且也是无法追踪的。


难怪广泛的抗议已经开始。 Artstation 中的艺术家,一个展示 CGI 艺术和插图的网站, 更改了他们的个人资料图片到“没有人工智能”,这迫使 Artstation 改变它的政策现在每个项目都可以标记为“无人工智能”,表示不允许将其用于训练人工智能。这是朝着正确方向的改变,它迫使人工智能公司遵守所有权规则。然而,它不会完全阻止艺术的自动化,也不应该。


由于技术突破而改变职业是不可避免的。我们之前已经经历过很多次这样的循环。电梯操作员已成为过去。剩下的旅行社不多了,例子还有很多。甚至还有创作先行者,摄影术的发明使现实主义艺术家的数量急剧减少,后来数码相机改变了摄影业。


此外,试图阻止技术来挽救工作是不道德的。这将优先考虑少数人的权利,即那些工作受到威胁的人,而不是许多其他人的权利,那些人可以享受这种自动化的成果。但有办法应对这一威胁。

有一些方法可以取代将被生成人工智能丢失的工作

在皮尤研究民意调查大多数专家在 2017 年进行的一项调查中认为,随着一些工作岗位的淘汰,更多的新工作岗位也会被创造出来。根据历史趋势,世界经济论坛预计2020年自动化将创造的工作岗位比它放弃的多 1200 万个。


我倾向于更像Jason Hickel的想法,在当前的经济体系下,资本总是寻求增长,自动化获得的所有成本节省都被重新投资到生产中,人们继续生产。但是,人们生产更多没有尽头。创造了新的就业机会,消耗了更多的产品和材料,但生活质量并没有提高。因此,贾森和其他进步主义者认为,通过减缓增长,我们可以利用节省的成本为每个人提供普遍的基本收入并腾出时间。人们可以用于创造性追求的时间。


无论我们是着眼于近期,如世界经济论坛所认为的那样,工作岗位发生了转变但并未消失,还是着眼于长期,如杰森希克尔所希望的那样,我们减少工作和消费,都有解决失业问题的路线图。但必须开始讨论如何在创意机器时代保持人类的创造力。

生成式 AI 中的伦理

人工智能中的伦理曾经是关于创造的无偏见的系统, 关于坚持隐私权同时受到具有面部和物体检测功能的软件的持续监视。然后,当生成式机器学习开始时,道德扩展到防止假货传播在一个充满深度造假的世界里,以及大约版权.所有这些都是真实的,但还有更广泛的问题。创造性机器学习中的伦理也应该是关于保持人类的人性。


在太空漫游等反乌托邦科幻小说中,威胁始终是机器产生自我意志并暴力反抗人类。现实并没有变成那样。谁能想到机器会通过画画、写文章来威胁我们?


如果我们想塑造一个公平、公正和有意义的未来,这里有一些建议的政策,我们应该考虑这些政策。有些政策更近期,有些则更难实现。但是,如果人类的聪明才智可以发明这些机器,那么它也可以发明管理它们的政策。它必须,我们的未来取决于它。

更新创意许可证 - 用于 AI 培训

每件原创作品:照片、艺术或代码都有一个许可证,定义了可以用它做什么。有些作品是免费的,有些则收取版税。有些可以用于任何用途,包括商业用途,而另一些仅供私人使用和研究。等等。


使用第三方工作来训练机器学习模型是一个新的用例。因此,它需要成为许可中的一个新类别。根据许可,一项作品可以用于机器学习培训(免费或收取版税)或不允许。 Sloyd(作者是联合创始人)有专门为 AI 创建 3D 模型和模型部件的艺术家,他们因此获得报酬。


当训练数据变得更加稀缺时,想出新表达方式的创作者将有更多时间在被机器模仿之前享受新创意途径的成果。或者,这些创作者可以决定以公允价值出售他们用于训练 AI 的作品,并迅速从他们的新作品中套现。

已经接受过大规模公共版权保护作品训练的模型应该属于公众

还有一些模型在未经同意的情况下已经接受了大量创作的训练。 “船已起航”,无法挽回。 诉讼关于如何处理过去用于培训的工作将持续多年,而现在的机器学习将在诉讼解决之前被使用数十亿次。


此外,没有公平的方法可以将这些机器创造的价值重新分配给创造者。如果无法重新分配财富,那么最好的办法就是免费向公众提供。 LAION是一个包含图像链接和匹配描述的数据集,用于文本到图像的训练,它已经是一个非营利组织(尽管它不会根据版权限制进行过滤)。 Stability AI,稳定扩散的创造者,是一家开源的生成式机器学习公司。使用他们的机器是免费的,他们通过附加组件赚钱。同样,作为摆脱诉讼的解决方案,其他公司将需要免费提供他们的机器学习工具,或者将该产品拆分给以开源方式运行的独立公司。


这听起来可能有些牵强,但联邦贸易委员会已经在考虑此类政策打破大型科技公司以增加竞争。使用相同的政策来管理我们一生中最大的技术变革并不牵强。

重视提高创造力而不是削弱创造力的人工智能

设计和培训 AI 的公司和个人应该考虑如何让人们更有创造力。技术回顾带来了几个例子机器增强创造力而不是取代它的地方:Photoshop 中的文本到图像插件; Blender 的 Stable Diffusion 插件和 Office 的文本到图像小部件。


在 Sloyd,我们考虑的是 AI 辅助创造,而不是 AI 创造。我们开始更多地关注环境和游戏道具的 3D 模型自动化,因为大多数 3D 艺术家喜欢为他们的游戏制作角色,但可以使用帮助来自动化其余部分。我们使用付费社区创建者来创建培训数据库,该数据库将不断扩展,因此总会有创造性的人类输入。我们尝试提供通过用户输入直接操作对象的方法,以便用户更好地控制输出。在这种情况下,建议是道德准则,而不是政策建议。然而,如果我们有明确的道德准则,我们将能够及时提出支持它的政策。

考虑培训的真实成本——包括环境影响

我们根据原材料的提取和生产成本支付电费,没有考虑环境成本。每一次使用都是如此,供暖和照明以及运行 AI 的数据中心也是如此。


数据中心消耗约2%占美国能源总量的比例预计将增长到 8%,其中很大一部分是由 AI 能源消耗驱动的每 3 个月翻一番.训练机器学习会消耗大量能量,而且推理(使用经过训练的模型创建输出)也是一项资源密集型工作。现在很难找到关于推理消耗多少能量的数据,这就是问题的一部分。对于家用电器,我们知道消耗了多少能源,我们甚至有能源评级。为什么我们在软件中没有类似的能量等级? (这是我在 Sloyd 的同事 Øyvnind Sørøy 提出的)。


如果我们开始衡量,如果我们必须支付真实的能源成本,那么在许多情况下,我们会发现通过不同类型的自动化或更高效的人工智能可以更有效地实现相同的目标。这是一场更大的绿色革命的一部分,但数据中心预计将占消费的 8%,而且除了家庭和办公软件消费外,软件和人工智能尤其不能免除。

围绕生成人工智能伦理和政策的讨论才刚刚开始

创造性机器打开的选项是深远的,但其含义也是如此。如果我们可以想象我们想要的未来,一个人类通过创造力找到意义的未来,我们就可以开始为符合道德的生成式机器学习制定正确的指导方针。这里提供的想法可以作为未来政策的基准,或者可能会出现更好的想法。可以肯定的是,对影响的理解和对我们将采取的措施的讨论才刚刚开始。