我们离创造 AGI 越来越近了——AGI 是一种能够在人类水平甚至更高水平上解决各种任务的人工智能。但人类真的准备好迎接这种可能如此深刻地改变世界的技术了吗?我们能与 AGI 共存吗?还是说与这种超级智能的相遇会是我们犯下的最后一个错误?
让我们探讨一下科学家和企业家今天正在考虑的情景,并试图理解:如果 AGI 成为现实,人类生存的机会有多大?
乐观主义者认为,AGI 可以且应该在严格控制下开发,只要采取正确的预防措施,这种智能就可以成为人类的盟友,帮助解决从气候变化到贫困等全球问题。像吴恩达这样的狂热者在他的文章中
然而,这些乐观的观点也有弱点。规模较小但功能强大的人工智能系统的经验表明,人们尚未完全相信自己有能力控制人工智能的目标。如果 AGI 学会改变自己的算法,可能会导致无法预测的结果。在这种情况下,我们的选择是什么——无条件地服从系统还是不断争夺控制权?
哲学家尼克·博斯特罗姆是
但这种合作在实践中会是什么样子呢?剑桥大学生存风险研究中心(CSER)
问题是,我们在核军备竞赛中已经看到了类似的情况。各国之间的政治分歧和相互不信任可能会阻碍全球就 AGI 安全达成共识。而且,即使各国同意,他们是否准备好对此类系统所需的长期监控?
埃隆·马斯克等悲观主义者认为,在 AGI 诞生后,人类生存的机会仍然低得惊人。早在 2014 年,马斯克
这种情景表明,我们陷入了“生存陷阱”,我们的未来道路取决于 AGI 的决策。悲观主义者认为,如果 AGI 达到超级智能水平并开始自主优化其目标,它可能会认为人类是不必要的,甚至是障碍。AGI 不可预测的行为仍然是一个主要问题:我们根本不知道这样的系统在现实世界中会如何表现,如果它开始对人类构成威胁,我们可能无法及时干预。
在
如果 AGI 成为现实,什么会影响我们的生存机会?让我们来看看人工智能安全和道德领域的顶尖专家确定的四个基本因素。
AGI 的准备速度和质量
斯图尔特·阿姆斯特朗
道德与目标设定
在
全球合作
在
控制和隔离技术
尼克·博斯特罗姆
因此,创建 AGI 的想法提出了人类从未面临过的深刻问题:我们如何与一种在思维、适应能力甚至生存技能上可能超越我们的智能共存?答案不仅在于技术,还在于我们如何管理这种智能以及我们在全球范围内合作的能力。
如今,乐观主义者认为 AGI 是一种可以帮助解决世界最大挑战的工具。他们指出,狭义人工智能已经在医学、科学和气候研究等领域帮助人类。但我们是否应该相信我们能永远控制这项技术?如果 AGI 变得真正独立,能够自行学习并改变目标,它可能会超越我们试图设定的界限。在这种情况下,我们曾经认为有用和安全的一切都可能成为威胁。
一些专家倡导的全球合作理念也面临诸多挑战。人类能否克服政治和经济差异,为 AGI 制定统一的安全原则和标准?历史表明,各国很少在影响其安全和主权的问题上进行深入合作。20 世纪核武器的发展就是一个典型例子。但对于 AGI 来说,错误或延迟可能会更具破坏性,因为这项技术有可能在各个方面超越人类的控制。
如果悲观主义者是对的呢?这就是最大的生存风险所在,这是埃隆·马斯克和尤瓦尔·诺亚·哈拉里等人所担心的。想象一下,一个系统决定人类生命只是方程式中的一个变量,它可以为了“更合理”的道路而改变甚至消除它。如果这样的系统认为它的存在和目标比我们的更重要,我们生存的机会就会很渺茫。具有讽刺意味的是,旨在帮助我们解决复杂问题的 AGI 可能会成为我们生存的最大威胁。
对于人类来说,这条道路需要更高层次的责任感和远见。我们会成为那些认识到创造 AGI 的后果并制定严格安全措施、为共同利益引导其发展的人吗?还是骄傲和不愿遵守共同规则会导致我们创造出一种没有回头路的技术?要回答这些问题,我们不仅需要技术突破,还需要深入了解智能系统的概念、它的价值观和原则、它在我们社会中的地位以及我们在它的世界中的地位。
无论结果如何,AGI 很可能是人类历史上最伟大的考验之一。其结果的责任落在我们所有人身上:科学家、政策制定者、哲学家,以及每一位在认可和支持安全未来努力方面发挥作用的公民。