人工智能会以“越多越好”的心态表现得更好吗?自然语言处理 (NLP) 的准确性依赖于无数字节的数据才能达到基本的会话水平。从语法到语义,AI 会话模型比简单地将字典下载到数据集中有更多的细微差别。
大型语言模型 (LLM) 是席卷全球的对话式 AI 聊天机器人,例如 ChatGPT。像 ChatGPT 这样的产品是未来对话式 AI 的榜样——它依赖于法学硕士——还是它们的受欢迎程度提供了对人类可以做得更好的洞察力?
BERT 和 ChatGPT 是世界上最著名的对话式 AI。法学硕士从书籍等数据输入和社交媒体或网站等不断更新的来源中提取信息。结合高级 NLP,它尝试在句法和语调上构建响应,在像人类一样阅读时用尽可能多的准确数据制作句子。
Chatbot 设计者已经开始质疑以前不依赖 LLM 的对话式 AI 模型是否应该进入聊天机器人的下一阶段。当法学硕士创造出令人惊讶的真实可信的反应时,人类为什么要继续尝试过时的设计?
人类必须依靠 LLM 来促进对话式 AI 的发展。尽管存在缺点,但它们的适应性和可扩展性是现有技术无法比拟的。
法学硕士并不完美——它们还处于开发初期,不可能没有大多数缺陷。幻觉困扰着法学硕士,为用户提供不一致或完全不准确的反应,而这些反应在多达 41%的情况下听起来很有说服力。如果这些模型是现代对话式 AI 的顶峰,为什么这会成为一个问题?
听起来像人会使数据差距更加成问题,因为没有数据集可以访问所有知识。它可能会构建 LLM 认为合理的句子,因为信息在特定上下文中是正确的。在 100% 的时间里尝试以类似人类的方式进行交流时,它无法辨别什么时候不是。确定的构建可能是一堆听起来令人放心但没有支持的数据。
幻觉可能是监督和数据管理不力的产物。概念漂移、过度拟合和欠拟合都是导致即使是最成熟的对话式 AI 也会做出错误响应的问题。当 AI 的学习环境支持与异常或不相关的数据建立联系,从而阻止辨别新数据时,你可以向法学硕士提出同样的问题两次,并得到两个不同的答案。
在法学硕士之前,外行从未接触过如此庞大而强大的对话式人工智能。 OpenAI 的出现是一次必要的技术转变,因为人类需要使用该工具来提高其性能。超过75% 的消费者相信AI 有能力变得更人性化,这表明人们与这些工具的互动是多么认真。
因为法学硕士在分析语言时会发现模式和关系,所以它可以让人们理解交流如何影响知识。如果 ChatGPT 查看网站来收集答案,您的措辞会如何影响输出?法学硕士如何通过语言和交流来复制人类的优先事项,尤其是在数字环境中?对话式人工智能如何与人交谈需要每个人——从计算机科学家到学生——反思世界是如何面对面和在线交谈的。
更多的用户贡献等于更多的信息,它可以用来扩展其能力,也称为人在环路处理。人们帮助识别过时的信息并改进交付。以前不使用 LLM 的公司和个人现在可以尝试如何简化生活和简化操作。本质上,这些资源是 AI 扩展和采用的免费广告。
对话式 AI 的未来可能依赖于 LLM 作为垫脚石或揭示下一发展阶段。尽管准确性和争议性,它已经在世界范围内产生了重大的文化影响,启发了每个人的未来。也许 AI 不应该永远依赖 LLM,但毫无疑问,现在需要它来保持积极进步的势头。