paint-brush
认真对待 Deepfake经过@synthesys
854 讀數
854 讀數

认真对待 Deepfake

经过 Synthesys AI Studio2022/04/18
Read on Terminal Reader
Read this story w/o Javascript

太長; 讀書

Deepfake 是由人工智能算法创建或借助人工智能算法创建的旨在误导观众的图像、声音和视频。 2017 年底,一名同名 Reddit 用户首次使用“deepfake”一词,该用户在 Reddit 网站上使用开源换脸技术分享色情视频。技术还可以用来让现实世界中的人出现在视频和音频中,说或做他们从未说过或做过的事情,替换现有视频中的人,或创建完全不存在的角色、名人或重要的政治家。

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - 认真对待 Deepfake
Synthesys AI Studio HackerNoon profile picture


人工智能不会消失。这种改变游戏规则的技术有可能通过简单地模拟人类思维来提高效率,并且可以通过训练来解决特定问题。根据Statista到 2025 年,人工智能将成为一个价值数十亿美元的产业,其应用范围从教育中的个性化学习到电子商务和商业中改进的客户服务。


人工智能进步的前景是无限而迅速的,每天都有新的突破发生。例如,在 AI 视频和语音方面,我们可以预期会添加新功能,视频生成会越来越多现实可控未来几年,Deepfake 就是其中之一。


在许多方面,与其他不断发展的技术一样,这是道德和风险评估的新前沿。这导致组织采用人工智能道德规范来正式指定人工智能在促进人类进步中的作用。人工智能道德准则的目标是在面临围绕人工智能使用的道德决策时为利益相关者提供急需的方向。

Deepfake 技术简介


深假货是由人工智能算法创建或借助人工智能算法创建的旨在误导观众的图像、声音和视频。


“deepfake”一词于 2017 年底首次由一位同名 Reddit 用户使用,他在 Reddit 网站上使用开源换脸技术分享色情视频。此后,该术语已扩展为包括在 Reddit 页面之前存在的“合成媒体应用程序”,以及诸如 STYLE-GAN 之类的新创作——“不存在的人的逼真静态图像”。


Deepfake 技术利用某人的行为——例如声音、面部、常见的面部表情或身体动作——来生成几乎无法与真实内容区分开来的新音频或视频内容。该技术还可用于让现实世界中的人出现在视频和音频中,他们说或做他们从未说过或做过的事情,替换现有视频中的人,或创建完全不存在的人物、名人、或重要的杰出政治家;这引起了人们对 deepfakes 伦理的诸多担忧。


过去,高科技工作室的专家创建 Deepfake 效果至少需要一年的时间,但随着机器学习的使用,多年来 deepfake 技术的快速发展使得创建真正有说服力的假内容变得更加容易和快捷。

AI 图像、AI 视频和 AI 音频的基础网络


Deepfakes 始于人工神经网络 (ANN) 的发展。 ANN 是一种机器学习模型,它建立在与人类大脑非常相似的神经元网络上。但是,它的不同之处在于人工智能不会对提供给它的新数据进行预测。相反,它会创建新数据。这些算法被称为生成对抗网络 (GAN),最近的突破推动了研究和开发,导致了 deepfakes 的出现。


基于人工神经网络的卷积神经网络 (CNN) 模拟视觉皮层如何处理图像以执行计算机图像识别。人工和卷积神经网络为深度学习程序奠定了基础,也是当今生成深度伪造算法的基础:生成对抗网络。


换脸应用程序,例如 Zao 和 Faceapp(最早的 deepfake 成功之一),允许用户将他们的面孔与另一个人的面孔交换,偶尔是名人的面孔,以创建 deepfake 或人工智能视频或几秒钟内的图像。这些进步源于深度生成建模,这是一项突破性技术,使我们能够复制现有的面孔,并为不存在的人构建新的、令人惊叹的逼真表示。


这项新技术理所当然地引起了人们对隐私和身份的担忧。但是,如果一种算法可以塑造我们的外表,是否有可能复制我们自己的数字身份的更多特征,比如我们的声音——或者创造一个全身替身?

威胁 Deepfakes 姿势


Deepfake 对我们的社区、政治体系和商业构成了重大威胁,因为它们对努力区分真假新闻的记者施加压力,通过发布宣传和扰乱选举危害国家安全,破坏公民对当局的信任,并提高网络安全个人和组织的担忧。


Deepfake 最有可能对新闻业构成最大的危险,因为它们比“传统”假新闻更危险,因为它们更难被发现,而且消费者更有可能认为假货是真的。此外,该技术可以制作表面上可信的新闻视频,使记者和媒体的声誉处于危险之中。 现在可以从几张图像中创建视频错误分配的视频材料,例如真实的抗议游行或暴力冲突,标题暗示它发生在其他地方,这是一个日益严重的问题,而深度伪造的兴起将使问题更加复杂。


路透社例如,在搜索新西兰克赖斯特彻奇大规模枪击事件的目击者视频时,发现了一段视频,声称显示了一名嫌疑人被警察击毙的那一刻。然而,他们很快意识到这是来自美国的另一起事件,基督城枪击案的嫌疑人并没有被谋杀。


情报机构有一些恐惧就足够了,因为深度伪造可以通过宣传政治宣传和干扰竞选活动来危害国家安全。


美国情报当局经常警告外国参与美国政治的危险,特别是在选举前夕。把话放在别人嘴里病毒式视频是当今虚假信息战中的有力武器,经过剪辑的电影很容易影响选民的意见。虽然这种捏造的录音可能会引发国内动荡、骚乱和选举骚乱,但其他民族国家可能会选择以欺骗为基础执行其外交政策,这可能会导致国际危机和战争。


连续不断的此类录音也可能会阻碍数字素养和公民对权威提供的信息的信任。语音录音,可以通过 Synthesys 等文本转语音功能轻松生成人工智能声音政府官员表达从未发生过的事情,导致人们不信任当局。此外,人们可能仅仅因为他们已经学会假设他们不想接受的一切都是假的,就认为真实的录像带是假的。换句话说,最大的危险是人们会开始将一切视为欺骗而不是被欺骗。


deepfakes 带来的另一个问题是网络安全漏洞。 Deepfakes 还可以用来影响市场和股票,例如,通过描绘 CEO 说出种族主义脏话、宣布虚假合并或将其表现得好像他们犯了罪一样。此外,deepfake 色情或产品公告可能会被用来损害公司的品牌、勒索或羞辱管理层。 Deepfake 技术还可以允许数字化模拟高管,例如,要求员工提供紧急现金转移或私人信息。

Deepfake 的积极方面


尽管 deepfake 技术存在潜在危害,但它可能具有正面应用在娱乐、教育媒体、数字通信、游戏、社交媒体和医疗保健等领域。


例如,在演员因疾病而失去声音的电影中,deepfake 技术可以帮助创建合成声音或更新电影片段,而不是重新制作。结果,电影制作人将能够重现老电影场景,创作出可以主演已故演员的新电影,使用 CGI 效果在后期制作中进行复杂的面部编辑,并将业余视频提升到专业水平。


Deepfake 技术还可以为任何语言的电影进行自然配音,让不同的观众更有效地欣赏电影和教育材料。一个2019 年全球疟疾宣传广告由大卫贝克汉姆主演的电影打破了语言界限,使用视觉和语音改变技术,让他看起来会说多种语言。



https://www.youtube.com/watch?v=QiiSAvKJIHo


Deepfakes 技术在在线游戏和虚拟聊天世界、听起来自然的智能助手以及个人的虚拟复制品中提供了改进的远程呈现。这有助于发展更好的人际关系和在线参与。


企业也可以从适用于品牌的 deepfake 技术中受益匪浅,因为它有能力彻底改变电子商务和广告。


例如,Deepfake 技术可以启用虚拟试衣,让客户能够在购买前预览服装在他们身上的外观,并可以制作随时间、天气和观众而变化的个性化时尚广告,以及创建人工智能化身这可以个性化与客户的沟通,并启用将人转变为模型的超个人内容。此外,在互联网上试穿衣服的能力是一个明显的潜在用途。该技术不仅允许人们制作自己的数字克隆,还允许人们以数字形式试穿新娘服装,进而虚拟体验婚礼地点。

拥抱道德实践


大规模创新是一个伦理问题,因为伦理基本上涉及任何可以增强或阻碍人类福祉的事物。因此,道德对于判断创新目标(例如深度伪造)以及执行过程和由此产生的结果非常重要。最基本的问题是,“deepfake 是为谁设计的?”


“他们创作的目的是什么?” “如何减轻最严重的后果?”回答这些问题可以帮助组织和个人与以下内容保持一致伦理框架,无论他们是在处理图片、音频还是视频 deepfake,联合国儿童基金会都会维护这一点。


他们包括:


  • 设计时要考虑到用户。
  • 了解现有的生态系统。
  • 规模设计。
  • 为可持续发展而建设。
  • 以数据为导向。
  • 使用开放标准、开放数据、开源和开放创新。
  • 重用和改进。
  • 不要伤害。
  • 保持协作。