想象一下:在这样一个世界中,人工智能不仅仅是与你互动的“聊天机器人”,而是一个负责决策、科学研究,甚至引导人类前进的实体。
欢迎来到AGI的世界,即通用人工智能,它指的是与人类一样聪明或更聪明的 AI 系统。对 AGI 的追求一直是 AI 社区的长期目标,生成模型的最新进展导致人们对其实现 AGI 的潜力越来越感兴趣。
生成模型是一种机器学习模型,能够根据训练它的大量数据(主要是文本,但现在也有图像)生成数据样本。他们可以从大量文本中学习语言的模式和结构,然后生成连贯且遵循相同模式的新文本。
这里的突破是使用“变形金刚”——2017 年推出的一种神经网络。
现在,更有趣的是……我问 GPT 生成模型是否可以生成其训练数据中从未有过的东西(在我们转向 AGI 时很重要)。
这是它的回应:
答案是,通过识别模式和数据结构,它可能能够但很难生成与训练数据截然不同的任何东西,而且没有什么是“完全新颖的”。这就是我们目前所在的位置。
一面反映你文明的镜子......
如果我必须以令人兴奋的方式描述 GPT:
目前,生成模型是你的文明在某个时间点的一面镜子,是你所做的一切的自动化和高效的记录和反映(一旦接受过一切训练)。
鉴于人类必须在许多年内产生科学、艺术和文化,然后在这一切的基础上训练模型,因此存在巨大的依赖性——这些生成模型要具有任何价值,模型训练的内容需要先创建。
这些模型可能看起来比人类“聪明”,但那是因为它们可以即时访问人类文化和文明产生的信息,而人类的创造力首先来自于一切......
为了进一步说明,我提出了“双行星”的例子。
在这种情况下,想象一个复制的文明,它已经进化到与地球-人类文明相同的水平,比如比邻星。他们可能具有相似的文化成就和相同的技术水平,尽管他们的语言、外貌等可能不同。与地球同时,他们开发生成模型和他们的 GPT4 版本。
如果我们向 Earth GPT4 模型查询 Proxima Centauri 上的任何信息,它什么也不知道……
当然,倒数也适用。即使是更高级的模型,如 GPT 5 或 6,也会有同样的局限性,因为它没有接受来自该星球的任何数据的训练。你还会认为它是“智能”吗?
GPT 在这种情况下会有多大用处?好吧,如果外星人来到这里,他们可以使用地球 GPT4 来了解我们星球、文化和成就的所有信息,前提是他们很快学会了 GPT 模型也熟悉的一种我们的语言。然而,在这个例子中,曾经被称为“AGI”的东西可能不被认为是这样。
真正令人印象深刻的是,如果地球GPT4能够理解来自假设的比邻星文明的图像或通过智商测试……。
令我惊讶的是,GPT4 能够理解图像中的模式、关系,并且能够通过简单的智商测试。是的,根据人类历史的数据,它的创造者训练它可以做到这一点,但一旦训练它就有了这种能力。
这给我们带来了智能本身的定义,以及先天智能的概念。
“每个生物都有一定程度的先天智力”
虽然教育、社会经济地位和文化经历等因素会影响认知发展,进而影响人类的智商测试表现,但这些并不是影响智力的唯一因素。遗传学、神经学因素和学习能力的个体差异也起作用。因此,每个生物都有一种与生俱来的智慧,它在现实世界中展示的可见智慧中发挥着重要作用。
请记住,如果一个人类婴儿在不同于他/她父母的文化中长大,学习不同的语言,孩子仍然能够快速学习。
考虑一下——如果我们回到两个行星的例子,我们相信虽然地球 GPT4、5 或 6 不了解另一个文明的文化、语言、事件等,但它将设法:
执行宇宙中不变的数学计算
了解宇宙中不变的基本模式
学习宇宙中可能常见的语言的基本结构
因此,......有能力从另一个文明及其数据中学习
然后我们接近一些非常令人兴奋的东西......然后我们可以争辩说,在创建这些模型时,我们承认必须在我们所有的数据上进行训练,我们正在迈出创建具有少量先天智能的东西的第一步。然后,每个后续模型都将在功能方面建立在前一个模型的基础上,直到……好吧,第 7 次或第 8 次迭代会是 AGI 吗?
在这一点上,我们需要清楚我们对 AGI 的定义是什么,因为我们最终离创建一个 AGI 越来越近了。我相信我们的定义已经变得模糊了。
如果我们回到 1993 年对“奇点”的定义,根据Vernor Vinge的“即将到来的技术奇点”一书,他谈到了“具有超人智能的计算机”。我可以争辩说,GPT4 在回忆知识方面已经比任何人都聪明,尽管它在创造力、理解力和情商方面的能力要差一些。
他还谈到了人类文明的进化,以与这种超级智能融合。这还没有发生,但已经建立了大脑接口。一个进入聊天 GPT4 的大脑接口可以让人类立即调用我们文明的所有知识,把他/她变成一个“超人”,这实际上是可以用今天的技术实现的。那么可以说我们已经满足了 1993 年定义的奇点标准……
如果我们转向未来学家雷·库兹韦尔 (Ray Kurzweil)对奇点的定义,他谈到“……当技术进步如此之快以至于它将导致人类文明发生深刻变化时……”。
2023 年,由于 GPT3 和 GPT4 的出现,是技术史上的分水岭,就像 PC 或互联网的推出一样。
已经有一些我只能与 GPT4 进行的对话,而我无法与其他任何人进行对话。原因是我周围的人现在可能对特定主题知识渊博,所以我求助于 GPT4。有时我确实会尝试与它争论并提出我的观点,而它会以反驳的方式回应。
根据我们之前对 AGI 的定义,可以说我们已经实现了它,或者至少在 GPT4 中非常接近它。
我们现在肯定在通往 AGI 的道路上,但我们现在必须为它明确定义一个路线图。这不再是二进制的,因为某些东西要么是 AGI,要么不是。更重要的是,一旦我们明确定义了这些级别,围绕 AGI 的恐慌肯定不会适用于 AGI 的所有级别。
这一点尤为重要,因为最近Elon Musk 等人公开呼吁“暂停” AGI 的开发,因为它们可能很危险。虽然这是正确的,但这也会让人类失去人工智能可以为社会带来的巨大利益。
当然,如果我们为 AGI 制定路线图并确定哪些级别有危险,哪些级别没有危险,那么我们就可以继续进行早期级别,同时在更高级的级别上更加谨慎。正确的?
以下是具有明确定义阶段的 AGI 的潜在路线图。
如您所见,1-3 级可能不会对人类构成太大的物理威胁,同时为社会带来许多好处,因此我们可以为继续发展这种能力提出论据。
4-6 级可能对人类构成重大威胁。我认为任何关于 4-6 级 AGI 的工作都应该在月球基地的空间站上进行,以限制对地球的潜在破坏。即使在 1000 年后,人类文明是否能够创造出 6 级 AGI 还是值得商榷的……
在过去的几十年里,我一直着迷于高级 AGI 的概念,它比人类更先进,因此如果我们适当地利用它,它可以迅速扩展我们的技术能力。
这是 2007 年我博客上的一篇旧博文,在关注 Kurzweil 等人之后,我推测奇点即将来临。
我一直想象的是一种“超级智能”,它从基本原理上比我们更好地理解宇宙,即使它是我们创造的。想象一种智能,一旦达到某个点,就会以指数方式促进自身增长。它将进行自己的研究和学习。
这种智能在人类未来的研究功能中发挥作用是合乎逻辑的。
它可以利用赋予它的知识并比人类更有效地发展科学理论。例如,在今天,我们已经看到很多用于强化学习的数据都是由 AI 本身模拟和生成的。如果我们拥有的总数据有限,那么我们可以要求它为我们设计更好的数据收集工具,即。更好的望远镜、航天器和量子设备。
我将使用的一个简单示例是我们使用的计算基础架构,其他一切都建立在该基础架构上。
今天的大多数计算机都使用所谓的“冯·诺依曼”架构,如下所示。这种架构的主要缺点是数据必须不断地在 CPU 和内存之间移动,这会导致延迟。
最重要的是,我们通常使用 x86 CPU,然后使用 Windows 或 Linux 等操作系统,然后使用 C++ 等编程语言编写应用程序。
想象一下,如果我们能够根据基本原则设计出一个最佳、高效的计算架构,并在基本架构级别、CPU 级别、操作系统级别和应用程序软件级别进行数量级改进。对于今天的人类来说,这将是一项艰巨的任务,不仅在实际的技术设计方面,而且在构建它、在上一层进行协作以及采用该技术方面也是如此。
有了“超级智能”的通用人工智能,它就有能力同时生成每一层。
它还会为我们提供工厂构建新组件的设计原理图,这也是最快和最有效的方式。
现在,虽然这一切看起来像是一个方便的幻想,但我已经用上面的例子来说明“宇宙思维”可以帮助人类取得的巨大进步。
另一个例子是要求它计算如何最好和最有效地“解决世界饥饿问题”或“解决气候问题”。
当你考虑以上内容时,似乎好处多于问题,尽管一直被提出的一个问题是宇宙思维可能决定毁灭人类。因此我说,如果我们要尝试构建它,除了我们今天拥有的负责任的 AI 保障措施之外,还要采取必要的保障措施,并考虑在太空站或月球基地建造 AGI 外星世界,能够在需要时切断网络和电源。
坚持你的座位! ……
一些 GPT 模型已经显示出令人印象深刻的通过 IQ 测试和学习基础数学的能力,暗示了开发超越简单文本生成的智能水平的潜力。既然我们有了 AGI 路线图的示例(上图),我们当然可以看到 GPT 如何成为该路线图中早期阶段的开始,尽管需要更多的技术突破才能最终进入后期阶段。
所以,系好安全带,做好准备——我们不知道这条路的尽头在哪里,也不知道它将把我们带到哪里,但是随着 GPT 模型现在成为主流,我们现在知道,到 2023 年,我们至少在路上,旅行向前。
本文所有内容版权所有 2023 Thavash Govender。
使用的图像已根据知识共享许可获得许可。
也发布在这里。