“信”只是一个开始。欢迎收看 AI 政治秀。拿些爆米花,或者更好的是,进入戒指。
“前几天我收到
政府未来生命研究所的一封信我打开看了看,上面说他们是傻瓜
他们想要我为他们的军队或其他什么
想象一下我该死的,我说从不
这是一片从不在乎的土地
关于像我和我自己这样的兄弟,因为他们从来没有
我不同意,但就在那一刻我想到了
吸盘有
权威权力”
混沌时刻的黑钢
Public Enemy 与当今 AI 状态之间的联系可能不会立即显而易见。但是,如果你将“政府”换成“未来生命研究所”,将“权威”换成“权力”,那么这些歌词可以很好地比喻当今人工智能领域正在发生的事情。
“这封信”,正如它在 Twitter 上广为人知,是一封由未来生命研究所 (FLI) 编写并由越来越多的人签名的公开信。它呼吁暂停训练大于 GPT-4 的人工智能模型,以便“为高级人工智能设计和开发制定和实施一套共享安全协议”。
FLI 的信中提到“人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。”很少有人会不同意这一说法,包括对“这封信”提出合理担忧的人。
我也签了“信”。当我这样做时,它只有不到 1.000 个签名者。今天, 根据 FLI 的常见问题解答,它大约有 50.000 个。我没有签名是因为我完全同意 FLI 或其框架——远非如此。我对上述说法也持保留态度,对所谓的AI炒作我是极为警觉和批判的。
我在“这封信”上签了名,希望它能引起人们的注意并展开一场非常需要的对话,它确实做到了。我记得唯一一次引发如此激烈辩论的人工智能反弹是在 2020 年。那是谷歌解雇了一些研究人员的时候,他们在一篇名为“随机鹦鹉”。
当然,2.5 年是 AI 的一生。那是在 AI 进入主流之前的 ChatGPT 之前。但这并不一定意味着这些问题在今天也得到了广泛的理解,即使它们引起了激烈的争论。
对“这封信”的第一线批评引用了它的起源和起草和签署它的人的议程——这是正确的。事实上,未来生命研究所是一个有效的利他主义、长期主义组织。
简而言之,这意味着人们更关心假想的技术乌托邦未来,而不是当今技术使用造成的实际问题。尽管 FLI 的常见问题解答也试图解决当前的危害,但不知何故,Peter Thiel 和 Elon Musk 引用“经济权力集中”作为一个问题听起来并不十分令人信服。
哲学家和历史学家 Emile P. Torres 曾是长期主义内部人士,他创造了首字母缩写词TESCREAL来描述长期主义及其意识形态家族。声称我们需要去火星拯救人类免于毁灭地球,或者我们需要超先进的人工智能来解决我们的问题充分说明了 TESCREAL 的想法。
这些人并没有把你的最大利益放在心上,我当然没有看到自己签署了一封由 FLI 起草并由 Elon Musk 共同签署的信。尽管如此,也很难不这样做。埃隆·马斯克类型获得的资金、影响力和知名度是不容忽视的,即使对于他们的批评者也是如此。
例证: DAIR ,即分布式人工智能研究所,由人工智能伦理学家 Timnit Gebru 设立。 Gebru 是 2020 年被谷歌解雇的人之一。DAIR 成立于 2021 年,旨在实现 Gebru 想做的那种工作。
DAIR“植根于这样一种信念,即人工智能并非不可避免,它的危害是可以预防的,当它的生产和部署包括不同的观点和深思熟虑的过程时,它可能是有益的”。这听起来很值得称赞。
DAIR 雇佣了一些研究人员来完成它的使命,并从福特基金会、麦克阿瑟基金会、卡普尔中心、乔治索罗斯的开放社会基金会和洛克菲勒基金会筹集了 370 万美元。研究必须以某种方式得到资助。但或许也值得思考这笔资金的来源。
Gebru 意识到了这个难题,并谈到了“现在也从事大型慈善事业的大型科技亿万富翁”。据推测,DAIR 创始人认为,将这些资金用于他们认为值得称赞的目标可能比资金来源更重要。但这种思路是否应该专门为 DAIR 保留?
DAIR 发表了一份“Stochastic Parrots 列出的作者关于“AI 暂停”信函的声明”。在这份非常深思熟虑的声明中,其作者写道,他们“对签署这封信的计算专业人士的数量以及它收到的积极媒体报道感到沮丧”。
虽然我认识一些签署 FLI 信件的专业人士并与之共事,但我不能代表任何人,只能代表我自己。但我确实认为让他们从怀疑中获益是公平的。
加里·马库斯 (Gary Marcus)等人表示,虽然他们并不完全认可“这封信”,但他们签署是为了实现他们认为非常重要的特定目标。听起来有点熟?
人们质疑签署者的动机,声称有些人可能只是想拖延目前领先 AI 的人,以便赶上。举个例子,埃隆·马斯克 (Elon Musk) 正在成立一家名为 x.ai 的新人工智能公司。而OpenAI 现在表示,也许越来越大的 AI 模型不是可行的方法。
但并不是每个签约的人都是出于自身利益。今天部署人工智能系统所造成的危害是真实存在的。
工人剥削和海量数据窃取;压迫系统的再现和对我们信息生态系统的威胁; 力量的集中。 DAIR 引用的危害都是非常真实的。
这些力量要么积极推动,要么盲目地通过 AI 实现这些。建立联盟来提出问题、提高认识和破坏大型科技公司的进军是务实的做法。
如果这听起来像政治,那是因为正如人们所指出的那样。这意味着它是关于“意见、恐惧、价值观、态度、信仰、观点、资源、激励和直截了当的怪癖”——加上金钱和权力。
这就是它一直以来的目的。 Gebru 对这个游戏并不陌生,在开始从外部玩影响力游戏之前,他曾尝试从谷歌内部改变一些事情。
FLI 呼吁暂停 AI 并不是第一个,但它是第一个引起关注的。务实需要签名,即使是批判性的。这就是马库斯所做的,尽管他在 FLI 之前提出了暂停。那封信并没有吸引 Elon Musk 类型的签名者,也没有吸引 DAIR 对 FLI 的信件所看到的“正面媒体报道”。
确实有一些这样的情况。一些媒体总是急于打出哗众取宠的牌,另一些则公开受到 TESCREAL 的启发。但这并不意味着所有报道都是正面的。无论如何,媒体影响是游戏的一部分。
但是研究呢? DAIR 和 AI 领导者如 Marcus、Andrew Ng 和 Yann LeCun 都提到了研究。 Ng 和 LeCun 认为,研究是解决方案的一部分,可以带来“使 [AI] 系统更加可控的新想法”。
这体现了一种广泛持有的信念,这种信念似乎可以归结为主要是技术性质的问题。如果你持有这种信念,那么相信克服问题需要更多的研究来提出解决方案也是有道理的。
然而,正如“随机鹦鹉”事件所表明的那样,这绝不是因为缺乏解决方案。它更多地是关于议程、政治、金钱和权力。
马库斯指出,人工智能最让他害怕的是人。他主张架起桥梁,而不是专注于单一问题。本着这种精神,重要的是不要仅仅专注于通过研究构建更好的人工智能。确保人们能够访问它至关重要。
最终,能够访问比 Internet Explorer 更好的浏览器比浏览器本身更重要。如果 90 年代的浏览器大战也是如此,那么它也可能告诉我们有关当今 AI 的一些信息。这就是Matt Stoller 提出的论点的要点。
Stoller 是一位坚定的反垄断主义者,他认为谷歌和微软对 AI 的吸引力是同一事物的两面。斯托勒认为,谷歌声称人工智能对其在搜索领域的主导地位构成威胁是为了误导针对谷歌的反垄断调查。
Stoller 声称“作为一个民主社会,我们有责任告诉我们的立法者,我们不希望少数人控制这种奇妙的科学知识”。他呼吁对大型科技公司保持警惕是正确的。
一些 AI 研究人员和企业家正在致力于创建可供任何人使用的数据集和模型。这很好,但我们需要记住浏览器的比喻。数据集和模型使开发人员能够构建事物。但是,如果这些东西因为大型科技公司将它们拒之门外而得不到货架空间,它们就不会有多大用处。
成为 AI 专家会有所帮助。但知道你在说什么并不一定意味着你会被听到,正如梅兰妮米切尔和她与参议员克里斯墨菲的交流所表明的那样。
米切尔在揭穿 AI 炒作方面做得很好。与可能对 AI 有所作为的人建立联盟……不是那么多。有时介入是正确的事情,要做到这一点,就需要联盟。
不管 AI 专家与否,我们每个人都可以做一些非常重要的事情。
首先,了解世界上的 ChatGPT 所发挥的垄断力量的本质。我们越多地使用这些 Big Tech 系统,我们就越有助于让它们变得更好,我们也就越能为 Big Tech 提供动力。 这次我们不要上当。让我们使用越来越多的替代品。
其次,进入人工智能政治。给参议员写信、收集签名、上街游行或举办 Twitter 空间讨论 AI 的国际机构——一切可行。但是做点什么,或者至少,注意别人在做什么。以人工智能的极快速度照常推进业务是灾难的根源。
我们已经处于一种权力规模在很大程度上被操纵以支持大型科技公司的情况。什么都不做意味着在不公正的情况下保持中立,这就是选择压迫者的一边。我们已经处于一种权力规模在很大程度上被操纵以支持大型科技公司的情况。
这篇文章的一个版本出现在这里。