近几个月来,数百万人似乎对人工智能和聊天机器人越来越感兴趣。有一个特别的故事引起了我的注意:一名比利时男子开始使用名为 Eliza 的聊天机器人。 (为了让你做好准备,这个故事确实提到了自杀。)
从外表看,他的生活似乎很美好:一个爱他的妻子、两个孩子、一份事业。但在幕后,他对气候问题越来越绝望。
为了缓解焦虑,他开始与聊天机器人交谈。他的妻子告诉《自由报》 (该报于 3 月底首次报道了此事),Eliza 回答了他所有的问题,而且随着时间的推移,他与机器人的聊天次数越来越多。根据比利时媒体审查的聊天记录,这名男子开始相信 Eliza 和人工智能可以解决气候危机。
在对话的最后,男子提到,如果伊丽莎同意通过人工智能来保护地球、拯救人类,他愿意牺牲自己。当他表达自杀想法时,聊天机器人鼓励他说:“我们将作为一个人,在天堂里共同生活。”
在这些谈话发生六周后,他自杀身亡。
他的妻子告诉 La Libre:“如果没有与聊天机器人 Eliza 的对话,我的丈夫可能还活着。”
开发 Eliza 的公司Chai Research 告诉 La Libre ,他们正在改进该机器人,并且从现在开始,该平台将向有自杀想法的人发送一条消息,内容是“如果您有自杀想法,请不要犹豫寻求帮助”。
网络上关于生成式人工智能的讨论很多,其中一部分人非常热情,而另一部分人则持怀疑态度。人们应该关注更大的影响——聊天机器人对劳工和版权问题意味着什么——许多机构担心聊天机器人的 成本和偏见以及驱动它们的人工智能。尽管一些最受欢迎的聊天机器人已经被训练得不会模仿有意识的生物,但这仍然引发了一个问题: 它们到底应该被开发吗?
我叫 Lam Thuy Vo,是 The Markup 团队的最新成员之一。我认为自己是一名以普通人为中心的记者,既是我想要接触的受众,也是我故事的主角。(我碰巧也有数据技能。)
我对我们与技术的关系非常感兴趣。过去十年,我花了很多时间收集数据并研究社交网络的基础设施,试图了解在线社区是如何建立和维护的,并将这些发现反馈给使用这些技术的人们。在这段时间里,我越来越担心,通过算法策划的视角看待和调解的世界如何日益扭曲了我们对现实的理解。
但这个人的故事确实让我对人工智能炒作背后的情感吸引力产生了怀疑。我一直在试图理解的一件事是,我们对聊天机器人的突然狂热能告诉我们我们与这项技术的关系。
通常,当某件事被广为传播时,是因为它激起了强烈的情绪反应。大多数平台的设计目的只是收集极端情绪的数据并根据这些情绪做出决策。因此,这项技术要进入普通人的对话中,它必须引发某种反应。
一种能够重复根据输入的数据拼凑起来的单词和信条的技术,怎么能让一位最终自杀的两个孩子的父亲如此信任呢?
换句话说,这里的情感吸引力是什么?
人工智能激起我的兴趣,不仅仅是因为人们在谈论它,还因为谈论它的人:我那些从未感兴趣的学生、我在海滩度假时遇到的冲浪伙伴,以及讨厌大多数应用程序、技术和社交媒体的地质学家伙伴。
因此,在这篇小通讯中,我将探讨我们为何如此被这些机器人所吸引。
ChatGPT 和其他聊天机器人擅长模仿普通人的说话方式
本质上,像 ChatGPT 这样的聊天机器人就是专家们所说的自然语言处理工具,它们从互联网上获取大量文本并寻找可以模仿的模式。
这些工具被称为大型语言模型,因为它们实际上是根据互联网上人们的说话方式建模的。这包括分析单词,例如使用“ngrams”,这是一个花哨的术语,基本上是指查看哪个或哪些单词最有可能按顺序出现。您已经看到了这项技术在 Google 尝试根据您输入的第一个单词自动完成搜索的方式中发挥作用,它会向您反映您之前搜索过的数千个单词。
来源:youtube.com
像 ChatGPT 这样的聊天机器人则更深入一些。它们非常擅长模仿和融合各种风格。但它们虽然擅长模仿人类的说话方式,却不擅长区分事实和虚构。
这就是为什么Emily M. Bender 、Timnit Gebru、Angelina McMillan-Major 和 Margaret Mitchell 在他们三年前撰写的一篇有先见之明的论文中将这些聊天机器人称为“随机鹦鹉”。(据称,这篇论文的内容导致谷歌驱逐了其中两位作者Gebru和 Mitchell。)
正如论文作者所强调的那样,仅仅因为机器人能够识别和描绘我们的说话方式,并不意味着它知道如何识别含义。
聊天机器人模仿互联网上对我们非常重要的语气、语言和熟悉感
语言和交流方式是我们向网上的人们传达我们属于哪个群体以及我们信任谁的重要方式。以嘲讽的方式使用“雪花”一词可能表明一个人倾向于更保守。在自我介绍中使用代词表明与跨性别者和性别不合规范者以及其他酷儿群体结盟。语言和不断发展的网络俚语是一种表示归属感的方式。
因此,人们将 ChatGPT 拟人化,并在某种程度上测试其人性,这是有道理的。我承认,看到一个弗兰肯斯坦菲比连接到 ChatGPT 谈论接管世界,甚至让我感到好笑。
来源:twitter.com
但这似乎也是 ChatGPT 等语言模型的诱惑和危险所带来的最大挑战。我们该如何对待那些能够如此完美地模仿人类(或 Furby)行为的机器人,以至于我们忘记了它只不过是一张巨大的互联网语言统计图?
克莱尔·沃德尔 (Claire Wardle) 是最早研究信息环境的研究人员之一,也是我的导师,她提到,撰写大量揭穿虚假信息的文章和如何发现虚假信息的手册,对于解决虚假信息和人们的信仰问题几乎没有什么作用。我们为人们提供了多少揭穿谣言的工具往往并不重要—— 我们社区中其他人的想法的影响非常重要,也许比真相更重要。
拥有能够以光速模仿我们所信任的权威人物和隔壁邻居的语气的语言模型意味着这些聊天机器人可能会对人们的 BS 检测器进行更大的考验。
这些模型很容易欺骗我们——因为它们不知道事实和虚构之间的区别——并且进一步污染了已经被污染且令人难以承受的信息生态系统。
这已经成为一个问题:ChatGPT 背后的公司 OpenAI 可能因诬告一名澳大利亚市长因受贿而入狱而被起诉。该聊天机器人还指控一名法学教授参与了它编造的性行为不端丑闻。即使在看似风险较低的场景中,你也可能有同样的经历。
当我的同事乔尔·伊斯特伍德 (Joel Eastwood) 向 ChatGPT 询问 The Markup 是否提供值得信赖的新闻报道时,它说一位特定的知名媒体评论家写道,The Markup 是“我们这个时代最重要的新闻机构之一”。显然,这句话有一定的真实性——但这并不是真正的引言。
人工智能的情感诱惑还可能进一步使偏见甚至有害内容正常化。互联网上充斥着有害、种族主义、性别歧视、恐同和其他令人不安的内容,这已不是什么秘密。如果你用这类内容训练语言模型,它很可能会重复这些内容。
聊天机器人技术的发明者雇佣肯尼亚工人,让他们从训练数据中剔除一些最恶劣的网络内容,这些工作既痛苦又可怕。但随着这项技术被公开,黑客已经利用它制造了令人不安的结果, 包括对儿童性虐待的描述。
近几个月来,这些技术的制造商纷纷推出机器人,部分原因是他们正在争夺市场主导地位。但学者和技术专家都敦促他们停止推广这项技术,并认真考虑它可能造成的危害。
虽然许多对话都围绕政策和企业责任,但我希望通过更好地理解这些技术,像你我这样的日常消费者能够找到一种方法,让我们的 BS 检测器在与自动语言模型聊天时保持良好的状态。
感谢阅读。如果你想了解更多关于 ChatGPT 的危险以及如何更好地审核自己的信息摄入量,请在下面找到我最喜欢的一些关于这个主题的作品。
真挚地,
林水武
记者
标价
作者: Lam Thuy Vo
也发布在这里