paint-brush
为什么 ChatGPT 和其他聊天机器人中的人为偏见会导致社会混乱经过@samueltreasure
2,326 讀數
2,326 讀數

为什么 ChatGPT 和其他聊天机器人中的人为偏见会导致社会混乱

经过 Samuel A. Akorede5m2023/02/22
Read on Terminal Reader

太長; 讀書

Chatbot,ChatGPT,被谴责为对美国前总统唐纳德特朗普持有“反保守偏见和怨恨”的偏见。 OpenAI 首席执行官 Sam Altman 在 2 月初发推文解决了这个问题。他承认存在针对 OpenAI 员工的“仇恨”,他认为这“令人震惊”
featured image - 为什么 ChatGPT 和其他聊天机器人中的人为偏见会导致社会混乱
Samuel A. Akorede HackerNoon profile picture

毫无疑问,人工智能革命催生了新技术发明。

它的颠覆引入了聊天机器人和 ChatGPT 等 AI 模型,这些模型目前正在塑造人们在 21 世纪的生活、互动和社交方式,这令人惊叹。

去年推出仅两个月后,OpenAI 聊天机器人 ChatGPT 就记录了全球超过 1 亿用户。

紧随其后,谷歌还宣布推出 Bard ,这是一种人工智能驱动的对话模型,可为人们提供易于理解的搜索结果信息。

这些都是巨大的成就,展示了人工智能的发展离确保人类过上轻松的生活方式有多近。但可能会有一些失误。

人工智能革命的问题

在人工智能的帮助下创造更好的方式来处理人类事务确实带来了一些影响。

ChatGPT 和其他高级聊天机器人等高级人工智能模型的出现已经对人类工作构成威胁。

迟早,人工智能会偷偷劫持人类的工作,或者让很多工人在他们的领域变得无用。

随着人工智能的革命,工作中断将不可避免。但随着这些人工智能模型轮流渗透到人类生活并改变事物的秩序,还有更多需要注意的地方。

与这些新技术(ChatGPT 和其他聊天机器人)相关的一个潜在问题需要认真观察,即这些模型如何导致社会混乱。

根据 OpenAI 首席执行官 Sam Altman 的说法,与 ChatGPT 对抗的一个主要问题是偏见问题。

人为偏见已被确定为 ChatGPT 的主要问题,当然,这不仅仅是 OpenAI 的 ChatGPT 独有。

还有其他具有选择性人类偏好问题的聊天机器人。

人工智能偏差统计

Tidio 的研究表明,只有 2% 的人认为人工智能没有偏见;相比之下,45% 的受访者认为人工智能的主要现代问题是社会偏见。

这意味着 ChatGPT 等 AI 聊天机器人在判断和操作上仍然缺乏公平性。因为使用这些人工智能模型,人类偏见表面上是显而易见的。

什么是 AI(人类)偏见?

AI偏差是人工智能在使用有偏差的数据训练模型算法时产生的问题,最终影响机器的判断。

Data Science & AI 负责人Steve Nouri在解释偏见在 AI 中的作用时表示,人类对 AI 的偏见有三种形式:性别偏见、种族偏见和年龄歧视。

人工智能中的人为偏见被认为是数据泄露或开发人员的责任。

这表明聊天机器人几乎不可能煽动种族诽谤、泄露伤害性言论或歧视特定人群。

除非模型使用了有偏见的算法或数据。

一个很好的例子就是 2016 年Microsoft Twitter 聊天机器人 Tay 在被指控存在种族偏见后突然关闭

即使是最近推出的 OpenAI 对话模型 ChatGPT 也被谴责为对美国前总统唐纳德特朗普持有“反保守偏见和怨恨”的偏见。

为什么聊天机器人中的人类偏见会导致社会混乱

ChatGPT 对前总统唐纳德特朗普的政治偏见导致社交媒体上对人工智能模型及其开发公司 OpenAI 的高度批评。

为了回应广泛的争论,OpenAI 首席执行官 Sam Altman 在 2 月初发推文解决了这个问题。根据 Sam 的说法,为消除 ChatGPT 偏见并改进它而进行的调整正在进行中。

在他的推文中,Sam 承认存在针对 OpenAI 员工的“仇恨”,他认为这“令人震惊”。

他还透露,他的公司正在努力改进聊天机器人的默认设置,以促进中立,并使用户能够根据个人喜好使用系统。

但这不会轻易发生。就连山姆也承认这个过程很艰难,需要时间来实施。

ChatGPT 的政治偏见导致对 OpenAI 员工的无端攻击。这足以衡量任何有偏见的人工智能模型的社会后果。

人工智能偏见会给个人和社区带来可怕的后果。它可能导致对一群人的不公平批评或歧视,从而间接引发敌意或社会爆发。

这就是为什么现在不要忽视偏见,而是要求可行的解决方案很重要

正如Sam所言,“攻击他人”对于AI领域的进步并没有太大帮助。应注意减少 AI 聊天机器人偏见的可能选项。

如何减少 AI 聊天机器人中的偏见

人工智能聊天机器人中的人为偏见是由于使用有偏见的算法或数据以及模型的开发人员造成的。为了防止 AI 出现偏见,在构建聊天机器人时必须遵守以下几点:

不同来源的开发商

AI 中的算法偏差或数据偏差最有可能发生,因为开发人员(作为人类)自然会在他们的方法中产生偏差。

一个由同质开发人员组成的团队很容易建立一个 AI 模型,该模型支持或支持他们对某些生活问题的看法和观点。

为防止这种情况发生,需要聘请一支由不同数据科学家组成的团队,他们可以协助观察和减少算法偏差。

合成数据的使用

人工智能模型消耗了大量未经审查的数据,使其存在偏见。消除聊天机器人偏见的一种方法是确保模型使用开发人员彻底观察到的合成数据。

透明度

对于 ChatGPT 发现的偏见的强烈反对,OpenAI 同意其新的 AI 聊天机器人仍然“难以保持事实的真实性,有时会发出有害的指令”。

人工智能公司出来打扫,告诉人们为什么聊天机器人仍然不能依赖重要或敏感信息。

这是遏制聊天机器人中人类偏见所需的一种透明度形式。通过说明模型的弱点,可以在升级之前驯服社会混乱。

开发前后测试模型

如前所述,开发人员应该在模型开发前后对其进行测试。

这可能需要很长时间来评估聊天机器人的功能,并解决测试过程中可能出现的任何形式的偏见。

允许数据科学家仔细研究人工智能聊天机器人运行所需的数据,并完善它期望模型响应或构建其退化信息的方式,应该是开发后必须进行的强制性检查。

结论

ChatGPT 与其他所有聊天机器人一样,仍远未摆脱人类偏见。这是一个基本问题,由 AI 接受训练的数据和开发人员的个人偏好共同造成。

一旦开发人员和数据科学团队开始以临床和客观的方式收集这些 AI 模型使用的数据,AI 偏见就会开始走向灭绝。