paint-brush
通往有意识机器的道路:GPT 模型和对 AGI 的探索经过@thavash
1,535 讀數
1,535 讀數

通往有意识机器的道路:GPT 模型和对 AGI 的探索

经过 Thavash Govender 11m2023/04/06
Read on Terminal Reader

太長; 讀書

通用人工智能 (AGI) 是指与人类一样聪明或更聪明的人工智能系统。寻求 AGI 一直是 AI 社区的长期目标。生成模型的最新进展导致人们对其实现 AGI 的潜力越来越感兴趣。
featured image - 通往有意识机器的道路:GPT 模型和对 AGI 的探索
Thavash Govender  HackerNoon profile picture
0-item



想象一下:在这样一个世界中,人工智能不仅仅是与你互动的“聊天机器人”,而是一个负责决策、科学研究,甚至引导人类前进的实体。


欢迎来到AGI的世界,即通用人工智能,它指的是与人类一样聪明或更聪明的 AI 系统。对 AGI 的追求一直是 AI 社区的长期目标,生成模型的最新进展导致人们对其实现 AGI 的潜力越来越感兴趣。

生成模型

生成模型是一种机器学习模型,能够根据训练它的大量数据(主要是文本,但现在也有图像)生成数据样本。他们可以从大量文本中学习语言的模式和结构,然后生成连贯且遵循相同模式的新文本。


这里的突破是使用“变形金刚”——2017 年推出的一种神经网络。


现在,更有趣的是……我问 GPT 生成模型是否可以生成其训练数据中从未有过的东西(在我们转向 AGI 时很重要)。


这是它的回应:




答案是,通过识别模式和数据结构,它可能能够但很难生成与训练数据截然不同的任何东西,而且没有什么是“完全新颖的”。这就是我们目前所在的位置。


一面反映你文明的镜子......

如果我必须以令人兴奋的方式描述 GPT:


目前,生成模型是你的文明在某个时间点的一面镜子,是你所做的一切的自动化和高效的记录和反映(一旦接受过一切训练)。


鉴于人类必须在许多年内产生科学、艺术和文化,然后在这一切的基础上训练模型,因此存在巨大的依赖性——这些生成模型要具有任何价值,模型训练的内容需要先创建。


这些模型可能看起来比人类“聪明”,但那是因为它们可以即时访问人类文化和文明产生的信息,而人类的创造力首先来自于一切......


两个行星的例子

为了进一步说明,我提出了“双行星”的例子。


由知识共享许可


在这种情况下,想象一个复制的文明,它已经进化到与地球-人类文明相同的水平,比如比邻星。他们可能具有相似的文化成就和相同的技术水平,尽管他们的语言、外貌等可能不同。与地球同时,他们开发生成模型和他们的 GPT4 版本。


如果我们向 Earth GPT4 模型查询 Proxima Centauri 上的任何信息,它什么也不知道……


当然,倒数也适用。即使是更高级的模型,如 GPT 5 或 6,也会有同样的局限性,因为它没有接受来自该星球的任何数据的训练。你还会认为它是“智能”吗?


GPT 在这种情况下会有多大用处?好吧,如果外星人来到这里,他们可以使用地球 GPT4 来了解我们星球、文化和成就的所有信息,前提是他们很快学会了 GPT 模型也熟悉的一种我们的语言。然而,在这个例子中,曾经被称为“AGI”的东西可能不被认为是这样。


真正令人印象深刻的是,如果地球GPT4能够理解来自假设的比邻星文明的图像或通过智商测试……。


与生俱来的智慧

令我惊讶的是,GPT4 能够理解图像中的模式、关系,并且能够通过简单的智商测试。是的,根据人类历史的数据,它的创造者训练它可以做到这一点,但一旦训练它就有了这种能力。



来自 GPT4 白皮书,OpenAI



这给我们带来了智能本身的定义,以及先天智能的概念。


“每个生物都有一定程度的先天智力”


虽然教育、社会经济地位和文化经历等因素会影响认知发展,进而影响人类的智商测试表现,但这些并不是影响智力的唯一因素。遗传学、神经学因素和学习能力的个体差异也起作用。因此,每个生物都有一种与生俱来的智慧,它在现实世界中展示的可见智慧中发挥着重要作用。


我们如何创造具有某种先天智能水平的人工智能?

请记住,如果一个人类婴儿在不同于他/她父母的文化中长大,学习不同的语言,孩子仍然能够快速学习。


考虑一下——如果我们回到两个行星的例子,我们相信虽然地球 GPT4、5 或 6 不了解另一个文明的文化、语言、事件等,但它将设法:


  • 执行宇宙中不变的数学计算

  • 了解宇宙中不变的基本模式

  • 学习宇宙中可能常见的语言的基本结构

  • 因此,......有能力从另一个文明及其数据中学习


然后我们接近一些非常令人兴奋的东西......然后我们可以争辩说,在创建这些模型时,我们承认必须在我们所有的数据上进行训练,我们正在迈出创建具有少量先天智能的东西的第一步。然后,每个后续模型都将在功能方面建立在前一个模型的基础上,直到……好吧,第 7 次或第 8 次迭代会是 AGI 吗?


他们是通用人工智能吗?

在这一点上,我们需要清楚我们对 AGI 的定义是什么,因为我们最终离创建一个 AGI 越来越近了。我相信我们的定义已经变得模糊了。


AGI 和奇点是否只是指任何比人类更聪明的智能?

如果我们回到 1993 年对“奇点”的定义,根据Vernor Vinge的“即将到来的技术奇点”一书,他谈到了“具有超人智能的计算机”。我可以争辩说,GPT4 在回忆知识方面已经比任何人都聪明,尽管它在创造力、理解力和情商方面的能力要差一些。


他还谈到了人类文明的进化,以与这种超级智能融合。这还没有发生,但已经建立了大脑接口。一个进入聊天 GPT4 的大脑接口可以让人类立即调用我们文明的所有知识,把他/她变成一个“超人”,这实际上是可以用今天的技术实现的。那么可以说我们已经满足了 1993 年定义的奇点标准……


奇点

如果我们转向未来学家雷·库兹韦尔 (Ray Kurzweil)对奇点的定义,他谈到“……当技术进步如此之快以至于它将导致人类文明发生深刻变化时……”。


2023 年,由于 GPT3 和 GPT4 的出现,是技术史上的分水岭,就像 PC 或互联网的推出一样。


已经有一些我只能与 GPT4 进行的对话,而我无法与其他任何人进行对话。原因是我周围的人现在可能对特定主题知识渊博,所以我求助于 GPT4。有时我确实会尝试与它争论并提出我的观点,而它会以反驳的方式回应。


根据我们之前对 AGI 的定义,可以说我们已经实现了它,或者至少在 GPT4 中非常接近它。


我们现在肯定在通往 AGI 的道路上,但我们现在必须为它明确定义一个路线图。这不再是二进制的,因为某些东西要么是 AGI,要么不是。更重要的是,一旦我们明确定义了这些级别,围绕 AGI 的恐慌肯定不会适用于 AGI 的所有级别。


这一点尤为重要,因为最近Elon Musk 等人公开呼吁“暂停” AGI 的开发,因为它们可能很危险。虽然这是正确的,但这也会让人类失去人工智能可以为社会带来的巨大利益。


当然,如果我们为 AGI 制定路线图并确定哪些级别有危险,哪些级别没有危险,那么我们就可以继续进行早期级别,同时在更高级的级别上更加谨慎。正确的?


AGI路线图

以下是具有明确定义阶段的 AGI 的潜在路线图。


  • 级别 1:智能机器——智能机器可以执行人类级别或更好的特定任务,例如下棋或诊断疾病。他们可以快速访问人类科学和文化成就的总语料库并回答问题。我们已经到了吗?


  • 第 2 级:自适应思维——可以学习和适应新情况的 AGI,通过经验和反馈随着时间的推移提高他们的表现。这些与 GPT4 类似,但在训练后继续学习。


  • 第 3 级:创意天才——AGI 能够产生原创和有价值的想法,无论是在科学、艺术还是商业领域。这些 AGI 建立在人类的科学和文化成就之上。他们开始为我们提供关于科学和宇宙的不同观点。


  • Level 4: Empathic Companions - AGIs 可以理解和回应人类的情感和需求,成为日常生活中值得信赖的伴侣和帮助者。这是这些智能模型中“情感”的开始,然而此时它们可能不仅仅是模型,而是开始以电子形式复制大脑。


  • 第 5 级:有意识的思考者——具有主观体验、自我意识以及推理自己的想法和感受的能力的 AGI。这就是通用人工智能可能变得真正不可预测和潜在危险的地方。


  • 第 6 级:通用思维——在各个方面都大大超越人类智能的 AGI,其能力我们还不能以我们有限的知识完全定义。这些 AGI 是我多年前的想象。这些 AGI 可以改进我们文明的局限性,并根据物理学的基本原理(即在宇宙中的最高知识水平上运作)为几乎任何事物推导出最有效和最先进的设计。


如您所见,1-3 级可能不会对人类构成太大的物理威胁,同时为社会带来许多好处,因此我们可以为继续发展这种能力提出论据。


4-6 级可能对人类构成重大威胁。我认为任何关于 4-6 级 AGI 的工作都应该在月球基地的空间站上进行,以限制对地球的潜在破坏。即使在 1000 年后,人类文明是否能够创造出 6 级 AGI 还是值得商榷的……


普世思想

在过去的几十年里,我一直着迷于高级 AGI 的概念,它比人类更先进,因此如果我们适当地利用它,它可以迅速扩展我们的技术能力。


这是 2007 年我博客上的一篇旧博文,在关注 Kurzweil 等人之后,我推测奇点即将来临。



我一直想象的是一种“超级智能”,它从基本原理上比我们更好地理解宇宙,即使它是我们创造的。想象一种智能,一旦达到某个点,就会以指数方式促进自身增长。它将进行自己的研究和学习。


这种智能在人类未来的研究功能中发挥作用是合乎逻辑的。


它可以利用赋予它的知识并比人类更有效地发展科学理论。例如,在今天,我们已经看到很多用于强化学习的数据都是由 AI 本身模拟和生成的。如果我们拥有的总数据有限,那么我们可以要求它为我们设计更好的数据收集工具,即。更好的望远镜、航天器和量子设备。


我将使用的一个简单示例是我们使用的计算基础架构,其他一切都建立在该基础架构上。


今天的大多数计算机都使用所谓的“冯·诺依曼”架构,如下所示。这种架构的主要缺点是数据必须不断地在 CPU 和内存之间移动,这会导致延迟。



由知识共享许可



最重要的是,我们通常使用 x86 CPU,然后使用 Windows 或 Linux 等操作系统,然后使用 C++ 等编程语言编写应用程序。


想象一下,如果我们能够根据基本原则设计出一个最佳、高效的计算架构,并在基本架构级别、CPU 级别、操作系统级别和应用程序软件级别进行数量级改进。对于今天的人类来说,这将是一项艰巨的任务,不仅在实际的技术设计方面,而且在构建它、在上一层进行协作以及采用该技术方面也是如此。


有了“超级智能”的通用人工智能,它就有能力同时生成每一层。


它还会为我们提供工厂构建新组件的设计原理图,这也是最快和最有效的方式。



现在,虽然这一切看起来像是一个方便的幻想,但我已经用上面的例子来说明“宇宙思维”可以帮助人类取得的巨大进步。


另一个例子是要求它计算如何最好和最有效地“解决世界饥饿问题”或“解决气候问题”。


当你考虑以上内容时,似乎好处多于问题,尽管一直被提出的一个问题是宇宙思维可能决定毁灭人类。因此我说,如果我们要尝试构建它,除了我们今天拥有的负责任的 AI 保障措施之外,还要采取必要的保障措施,并考虑在太空站或月球基地建造 AGI 外星世界,能够在需要时切断网络和电源。


概括

坚持你的座位! ……


一些 GPT 模型已经显示出令人印象深刻的通过 IQ 测试和学习基础数学的能力,暗示了开发超越简单文本生成的智能水平的潜力。既然我们有了 AGI 路线图的示例(上图),我们当然可以看到 GPT 如何成为该路线图中早期阶段的开始,尽管需要更多的技术突破才能最终进入后期阶段。


所以,系好安全带,做好准备——我们不知道这条路的尽头在哪里,也不知道它将把我们带到哪里,但是随着 GPT 模型现在成为主流,我们现在知道,到 2023 年,我们至少在路上,旅行向前。


本文所有内容版权所有 2023 Thavash Govender。

使用的图像已根据知识共享许可获得许可。


也发布在这里。