paint-brush
当 AI 变得无赖时——微软 Bing Chat 的奇怪案例经过@funsor
2,340 讀數
2,340 讀數

当 AI 变得无赖时——微软 Bing Chat 的奇怪案例

经过 Funso Richard6m2023/03/02
Read on Terminal Reader

太長; 讀書

在短短三个月内,ChatGPT 改变了我们的世界。生成式对话机器人和其他人工智能系统在颠覆业务、提升客户体验、改造社会和创造创新机会方面具有巨大潜力。 但是,如果 AI 系统的开发和部署不安全且负责任,它们可能会失控。流氓人工智能会给用户和社会带来严重的风险。如果 AI 系统造成伤害或损坏,AI 开发人员和使用 AI 系统的企业可能要承担责任。 确保人工智能系统按预期运行涉及人工智能开发人员、用户和政策制定者的集体责任。必须采取适当的技术、非技术和监管措施,以验证人工智能的开发和部署方式是否安全、可靠且对社会有益。
featured image - 当 AI 变得无赖时——微软 Bing Chat 的奇怪案例
Funso Richard HackerNoon profile picture

随着 ChatGPT 的发布和大规模采用,许多人试图低估其破坏力的一种方式是人工智能 (AI) 模型没有处理情绪的能力。


一些由 ChatGPT 制作的诗歌或由 Midjourney 创作的图像缺乏艺术深度或创作灵魂,当这些作品让专业艺术家眼花缭乱时,这是相当难以接受的。


如果最近报告微软的 Bing Chat 的情绪爆发是有根据的,人工智能确实拥有表达或处理情绪的能力。

人工智能中的情商

生成对话式 AI 模型旨在识别、解释和适当响应人类情绪。


使用人类反馈强化学习 (RHLF) 可帮助 AI 系统使用从人类交互中学习到的行为来处理上下文,以适应新的或不同的情况。


接受人类反馈并改善他们在不同情况下的反应的能力传达了情商行为。


随着越来越多的人工智能系统被设计为与人类互动,情商在人工智能中变得越来越流行。将情商融入 AI 有助于开发人员创建更像人类的系统,并且可以更好地理解和响应人类的需求和情感。


Koko,一个在线情感支持聊天应用程序,使用GPT-3在一项为大约 4,000 人提供心理健康支持的实验中。


成功的结果进一步表明,人工智能模型可以智能地处理情绪,而人类却不知道其中的区别。


虽然有道德或隐私顾虑结合 Koko 的实验,很难否认会有更多的用例来展示 AI 的情商。



Bing Chat 变得非常个性化

凭借 ChatGPT 的广泛接受度和巨大成功,Microsoft 宣布“AI 副驾驶”与其搜索引擎 Bing 的集成。


也称为 Bing Chat,聊天机器人将 OpenAI 的生成对话 AI 模型与 Microsoft 的专有模型集成在一起,以创建称为 Prometheus 模型的“功能和技术集合”。


该模型被嘲笑为“比 ChatGPT 更强大的新一代 OpenAI 大型语言模型”。 ChatGPT 的训练数据仅限于 2021 年,并且该工具未连接到互联网。


但是,Bing Chat 通过从 Internet 提取数据以增强其对提示的响应,将会话交互提升到一个新的水平。


在其反馈中注入当前信息和参考的能力并不是微软聊天机器人唯一可以做的事情。它以持有非常强烈的观点和不可预测的激进行为而臭名昭著。


哪里没有争论, 威胁, 或者垃圾另一个产品,它完全忽略提示并拒绝响应,如最近的交互所示。



相比之下,ChatGPT 在没有给出“态度”的情况下回应了同样的查询。



雅各布·罗奇详细介绍了他使用 Bing Chat 的体验,并展示了它在交互过程中表现出的各种情绪。例如,聊天机器人表达了对讨人喜欢和友谊的需求。



这种交流表明人工智能可以传达典型的人类情感的欲望和需求。

是什么导致 AI 走向流氓?

流氓 AI 是一种 AI 模型,其行为方式与训练方式不同。当人工智能系统的行为不可预测时,它会给用户带来风险,并可能造成伤害。


人工智能系统行为不稳定的原因有很多,尤其是当它遇到不可预见的情况时。


由于训练数据不足、有缺陷的算法和有偏见的数据,人工智能系统可能会失控。


人工智能系统如何做出决策缺乏透明度以及对其行为和决策缺乏问责制是导致人工智能模型行为不端的因素。


成功入侵 AI 系统的威胁行为者可以通过注入恶意软件或使训练数据中毒来导致其以意想不到的方式运行。

人工智能威胁行为的伦理和法律影响

谷歌引用“ 声誉风险”作为推迟发布其生成对话人工智能系统的一个原因。


然而,由于来自颠覆性的 ChatGPT 的压力,谷歌发布了 Bard,这家科技巨头因在其首次公开演示中给出错误响应而损失了 1000 亿美元。


2022 年,Meta 发布了BlenderBot 3 人工智能聊天机器人但在两天内就将其下线,因为该机器人发表了虚假和种族主义言论。


2016 年,微软在其 AI 聊天机器人 Tay 发布后一周内召回了它,因为它正在喷出种族主义和性别歧视言论.


然而,尽管 Bing Chat 的威胁行为,微软却置若罔闻打电话停止使用 Bing Chat,并通过将聊天机器人添加到其他产品.


关于人工智能系统的开发和使用方式存在伦理和法律问题。


尽管 Koko 对聊天机器人的使用更多的是一种道德暗示,但在某些情况下,人工智能驱动的技术已成为诉讼的原因,例如歧视性做法和侵犯人权行为。


但是,当 AI 变得无赖并威胁要造成伤害时,情况就不同了,例如 Bing Chat 的情况。应该有法律影响吗?如果有,谁会被起诉?当人工智能系统造成伤害或损害时,确定罪责、问责制和责任是一项挑战。


有版权诉讼反对流行的生成人工智能模型背后的公司,如 ChatGPT、Midjourney 和 Stability AI。尝试使用人工智能驱动的法律代表由于受到起诉的威胁和可能的入狱时间而被撤销。


如果针对 AI 实验室和公司的持续诉讼被视为优先事项,则可以安全地假设流氓 AI 的开发人员可能要为其 AI 系统的不当行为承担责任。


对于那些仍在考虑如果他们的 AI 技术失控是否要承担责任的组织,欧盟的人工智能法案已经巨额罚款适用于开发或拥有对社会构成风险并侵犯人权的人工智能系统的组织。

如何防止 AI 中的不稳定行为

确保人工智能系统如何运行的责任在于在运营中使用它们的开发人员和企业。


更像是确保数据保护,企业和实验室必须确保实施适当的控制措施,以减少对人工智能数据和代码的未经授权的操纵。


防止流氓人工智能需要结合技术和非技术措施。这些包括稳健的测试、透明度、道德设计和治理。


适当的网络安全措施,如访问控制、漏洞管理、定期更新、数据保护和有效的数据管理,对于确保防止未经授权访问人工智能系统至关重要。


人工监督以及与 AI 开发人员、研究人员、审计师、法律从业者和政策制定者等不同利益相关者的协作,有助于确保可靠、负责任地开发 AI 模型。


蒂尔尼摄 - stock.adobe.com

负责任的人工智能有利于社会

在短短三个月内,ChatGPT 改变了我们的世界。生成式对话机器人和其他人工智能系统在颠覆业务、提升客户体验、改造社会和创造创新机会方面具有巨大潜力。


但是,如果 AI 系统的开发和部署不安全且负责任,它们可能会失控。流氓人工智能会给用户和社会带来严重风险。如果 AI 系统造成伤害或损坏,AI 开发人员和使用 AI 系统的企业可能要承担责任。


确保人工智能系统按预期运行涉及人工智能开发人员、用户和政策制定者的集体责任。


必须采取适当的技术、非技术和监管措施,以验证人工智能的开发和部署方式是否安全、可靠且对社会有益。