除非一个人一直生活在真正的岩石下(而不是在岩石之上),否则您可能听说过 ChatGPT - 一种开创性的、基于反乌托邦式对话的人工智能系统。
其极其健谈的方式让用户将其推向了极限。
大多数人对其实时编写代码或生成无误的原创文章的能力感到敬畏。
乍一看,ChatGPT 相当令人印象深刻。虽然这项技术已经存在多年,甚至其他公司过去也推出过类似的举措,但 ChatGPT 能够在六天内获得一百万用户。
从产品的角度来看,这无疑证明了 ChatGPT 满足了市场需求。它很可能会永远改变零工经济,因为它本质上支持交互式谷歌搜索,实时提供更简洁和可操作的结果。
然而,人工智能的话题往往与伦理话题一致——许多人开始质疑这种模式对所有人开放的潜在危险。
正如过去所表明的那样,人类在教 AI 说不该说的话,更不用说思想了。
在更哲学的层面上,ChatGPT 的真理来源是什么?
其他未来基于 GPT 的系统呢?
我们如何确保在不损害 AI 安全性的情况下考虑哪些偏差、数据集和参数?
这些担忧(写为“局限性”)实际上已被 OpenAI 在
在解决不可避免的 AI 聊天机器人起义之前,请先从鸟瞰的角度简要解释一下它的实际工作原理。
ChatGPT 基于 GPT-3.5——GPT-3 的一个更新、更好的版本。
GPT 代表生成式预训练 Transformer 3。
“这是一种自回归语言模型,使用深度学习来生成类似人类的文本。给定初始文本作为提示,它将生成继续提示的文本。” -
简而言之,它是一种预测性语言处理模型,经过专门训练以生成人类可读的测试。这个概念是使用图灵测试来测试的,目标是人工智能生成的文本应该与人类编写的文本没有区别。
GPT 必须尝试预测正确答案。在训练模型时,它会不断调整其内部变量,直到获得正确答案。
在训练模型时考虑了许多因素,例如跟踪单词的注意力——即单词在句子中的影响/排名。
有关它如何在更技术层面上工作的更多信息,请阅读
ChatGPT 是第一个真正以用户友好的方式向公众开放此功能的公司,鉴于其抛物线式增长,这既是一件奇妙又令人恐惧的事情。
大多数来自基于 GPT 的人工智能(如 ChatGPT)的问题都在这句话中:
“在核心,GPT-3 与其他人工智能模型一样,仅与它所训练的数据一样好,而人类创造了这些数据。我们持有的相同信念、偏见、错误和谎言反映在人工智能的反应中。由于像 ChatGPT 这样的工具给人以智能、客观和自信的印象,我们倾向于相信这些模型给了我们什么。” -
这些模型的主要问题是输入的数据。在 AI 发挥作用之前,它必须使用数十亿个单词和参数,与之交互并进行测试。这些数据集通常经过过滤和整理以包含特定信息。
就 ChatGPT 而言,它从互联网获取数据——这使它能够轻松获得大量不同的解决方案(AI 有指尖吗?)。
然而,这也意味着它可以带来互联网的一些阴暗面及其偏见。
问题不在于 AI 本身——它正在跟踪创建它的训练和数据收集过程。
如果可以在一定程度上确定和透明地跟踪和追溯模型训练的历史、来源和整个过程,那么就可以更好地确定其产生的结果的可信度。
这样,在具有特定目的、动机和精选数据的更集中的模型中,价值将更加明显。
需要明确的是,OpenAI 意识到模型可能存在偏差,并且需要在某个时候建立可靠的真实来源。
还有什么比分布式容错分类账更好的技术来保持 AI 创建的不可变、透明和按时间顺序的记录?
大多数人将人工智能视为一种功能“黑匣子”,其中数据的来源、收集地点、在什么情况下以及它如何运作仍然未知。
然而——如果每当创建一个新的 AI 时,每个相关过程都被提交到一个分类账上供公众查看,这样他们就可以确切地知道 AI 如何根据给定的数据运行?
区块链擅长保持可验证的、公正的事实记录。
显然,这只适用于像 ChatGPT 这样面向公众的人工智能。从数据集到参与人员、基本参数到任何潜在偏差的所有内容都可以作为链上存在。
随着 AI 逐渐训练并变得更好,它也会实时更新到分类帐中。这样一来,即使是负责其培训的开发人员也能够清楚地、按时间顺序了解 AI 在性能方面的确切表现。
更重要的是,分类账将提供一个直接的真实来源,由人工智能创造的来源提供支持。
换句话说——我们让 AI 从创建开始就对其负责,跟踪它的起源、动机,以及它究竟是如何受到训练水平的影响的。
它将确保数据的一致性和来源。数据完整性一直处于低位。使用像区块链这样的记录保存系统,我们可以为 AI 追踪每个数据字节的来源。
这将有助于识别在 AI 黑匣子中可能难以检测到的任何偏差,并防止可能来自“恶意”AI 的数据的错误传播。
把它想象成一个验证复选标记。如果 AI 有复选标记,则它是有效的。如果不是,那么就有理由怀疑其合法性。
正如Polkadot等区块链所示,组织也完全可以对链上的某些规则和机制进行投票。可以为 AI 做一个类似的概念,其中可以进行投票以确定有关其合法性、数据完整性等的各种因素。
毕竟,这些模型的好坏取决于提供给它们的数据。
随着时间的推移,数据可能会变得复杂。谁控制源头,源头变成可能有害的东西怎么说?
诚然,OpenAI 确实有它的 Moderation API——另一种检测被视为有害事物的 AI,这是朝着正确方向迈出的非常有价值的一步。
然而,即使对于事实证据,即历史,基于互联网的数据也需要经过多次审查和检查。
随着越来越多的公众依赖这些服务,确保可靠的信息将变得至关重要。
毫无疑问,人工智能将改变世界。通过 ChatGPT,它向公众展示了这项技术如何在一夜之间改变他们的生计。
确保人工智能的完整性是下一步。验证它收到的数据、开发者及其确切的动机/目标对于保持道德标准以及公众对此类模型的信心至关重要。
现在真的开始感觉像 web3 了!