paint-brush
人工智能个人助理的兴起及其后果by@adrien-book
1,753
1,753

人工智能个人助理的兴起及其后果

Adrien Book5m2023/11/14
Read on Terminal Reader
Read this story w/o Javascript

ChatGPT 是一个聊天机器人,可以在其现有“知识”之上使用自定义(私人)数据构建,GPT 可以进行调整以具有特定的目标或个性。 “代理”(应该这样称呼)可以在没有任何编码知识的情况下仅使用自然语言来创建/配置。
featured image - 人工智能个人助理的兴起及其后果
Adrien Book HackerNoon profile picture
0-item

在上周的 DevDay 期间, OpenAI在首席执行官 Sam Altman 的指导下发布了一系列更新。该公司推出了“GPT-4 Turbo”,提高了外部开发商的负担能力。此升级版本扩展了 ChatGPT 的知识库,包含截至 2023 年 4 月的信息,超过了之前 2021 年 9 月的限制。同时,该公司采取了一项奇怪的战略举措,愿意承担客户因版权侵权诉讼而产生的法律费用(接受挑战) 。


然而,最重要的公告是 Altman 所谓的“GPT”(又名生成式预训练变形金刚;他不擅长品牌推广)即将推出。本质上,GPT 是自定义聊天机器人,可以在现有“知识”之上使用自定义(私有)数据构建,并且可以对其进行调整以具有特定的目标或个性。


ChatGPT 应用程序中已可测试的用例之一是“游戏时间:我可以向任何年龄段的玩家快速解释棋盘游戏或纸牌游戏。让游戏开始!”另一个是:“谈判者:我会帮助你为自己辩护并获得更好的结果。成为一名出色的谈判者”。当然,我最喜欢的是:“Genz 4 meme:我帮助你理解行话和最新的 meme。”


无需任何编码知识,仅使用自然语言即可创建/配置人工智能“代理”(应如此称呼)。您可以简单地给它一个名称和描述,然后定义它应该做什么、应该如何表现以及应该避免做什么。然后,您可以上传文件以提高其对给定特定任务的熟练程度。在演示中,奥特曼制作了一位“创业导师”,根据他过去的演讲向创始人提供建议。


我们基本上正在见证人工智能战争的第二波浪潮。第一波产品化和民主化的大型语言模型;我们现在正在针对个人进行个性化定制。同样的事情也发生在互联网和社交媒体上(从2007年开放的Facebook到2023年个性化的TikTok)……但花了15年,没有一年!


当我们迈向个性化人工智能助理世界时,有四件事引人注目。

GPT 将取代数百万个工作岗位。

自ChatGPT一年前问世以来,私人人工智能助理是许多公司一直渴望的东西。他们拥有员工手册、福利信息和客户服务手册等数据……他们希望通过聊天机器人可以搜索和访问这些数据,而无需编码或向公众提供数据。现在这是可能的。


我们别自欺欺人了。这将取代数以百万计的工作岗位,因为五个人做的事情现在可以由两个人完成。客户服务即将遭到削弱。然后HR来了。会计也一样。在各个组织和世界各地,“支持”职能将减少一半,甚至更多。在上周宣布之前,公司已经在研究这个问题。这项工作现在已经加速了十倍。管理这些变化应该是政府的首要任务。

新的经济将会出现。

Altman 鲜为人知的声明之一是 GPT 可以共享,并且在不久的将来可以商业化/货币化。从本质上讲,这将创建一个新的应用程序商店,这是 21 世纪最伟大的发明之一。


由于 ChatGPT 在设计上是开放的,因此了解客户的价值所在将是一件很有趣的事情。它会在自定义数据中吗?在赋予的个性中?如果是前者,内容最多的公司将拥有最大的权力。那时不会有太大改变,反垄断监管机构应该更仔细地审视这些工具(因为我们正在重建上一个计算时代的平台)。


也有可能产生净积极影响。例如,这对于医疗保健来说是一个巨大的机会。如果一个非政府组织根据在线提供的大量医疗数据、数以百万计的诊断和图像来训练算法……我们就可以让所有人都能以今天的一小部分价格获得医疗服务。天哪,它甚至可以免费提供给一些最需要它的人。我已经写过有关人工智能民主化力量的文章;我们正在接近这一现实。我们只需要愿意让它发生。

人类的互动将会改变。

当我开始使用新的 GPT 界面时,我想到的第一个用例就是向人工智能提供我与妻子的所有对话,看看是否可以自动化一些简单的日常对话。


我不会是唯一一个有类似想法的人。一旦这些工具传播开来,我们如何知道在线互动是否真实?我们需要多久才能向人工智能提供已故者的数据(文本、电子邮件、录音……等),将其转化为真实事物的明喻?我们可以与某人交谈来应对吗?没多久。事实上,它已经存在……而且变得更容易做到。


奥特曼在上周的主题演讲中确实说过:“我们都将根据需要拥有超能力。”当我们重新创造一个能够让我们永生的神时,我们应该确保我们在这个过程中不会失去一点人性。

危险的人工智能用例可能会出现。

我们正在迅速迈向这样一个现实:人工智能代理不仅可以谈论事物,还可以根据特定指令及其给定的“角色”采取行动。当我们个性化我们的人工智能代理/助手时,我们无疑希望他们代表我们采取行动(这是我在四月份预测的)。如果未定义完成操作的路径,AI 代理将制定自己的路径。


如果我们不小心,这可能会导致不必要的外部效应。假设您想在一家高档餐厅预订一张桌子。你向你的人工智能助理解释说这对你来说非常重要。然后人工智能打电话给工作人员并威胁他们。或者雇佣某人来做这件事。或者它在情感上操纵员工,它在网上找到了他们的信息。这些工具在很大程度上是“黑匣子”,重要的是要设置正确的护栏以确保这种情况不会发生。


重要的是不要过分强调本周发生的变化的重要性。 GPT 仍然主要由“通常的”chatGPT 构成,并带有少量的个性化内容。您可以执行上面突出显示的大部分操作……但您必须输入多个提示。总而言之,这只是一条捷径。不是一个飞跃。目前。


我们正在见证一家具有世代意义的公司的形成。如今,OpenAI 的推出非常谨慎且缓慢。但我们需要仔细观察它们:在过去的几个世纪里,很少看到一家公司变得无所不能……并利用这种力量来做善事。


人工智能个人助理的黎明

祝你好运。


还发表了这里