paint-brush
主观性与人工智能哲学的演变经过@antonvoichenkovokrug
1,809 讀數
1,809 讀數

主观性与人工智能哲学的演变

太長; 讀書

本概述追溯了人工智能哲学的历史,将符号人工智能与联结主义模型的出现进行了对比。著名哲学家休伯特·德雷福斯 (Hubert Dreyfus) 挑战了符号人工智能的理性主义观点,为受神经网络启发的联结主义方法铺平了道路。这种演变反映了技术和哲学观点的进步,塑造了我们对人工智能的理解。
featured image - 主观性与人工智能哲学的演变
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

人工智能哲学的历史概述

许多技术哲学领域的著名人士都试图理解技术的本质,并将其与社会和人类经验联系起来。 20世纪上半叶,他们的分析结果主要表现出技术与人类生活之间的分歧。


技术被视为一种自治力量,摧毁了人类的基本部分。通过将技术的概念归结为历史和先验的假设,哲学家似乎从特定事件的影响中抽象出来。


人工智能主观性哲学



在八十年代,基于美国哲学家的思想,一种更加实证的技术观点得到发展,他们将特定技术的影响融入到他们的观点中(Achterhuis, HJ, “Van Stoommachine tot cyborg; denken over techniek in de nieuwe wereld”, 1997 ) 。技术与社会的相互依存是本研究的主题。这种“经验转向”使得解释技术的多功能性及其在社会中发挥的多种作用成为可能。这种方法在技术哲学家中得到了进一步发展,例如在特温特大学。


人工智能作为一个研究领域成立于 1956 年。它关注计算机器中的智能行为。研究目的可分为四类:


  • 像人类一样思考的系统。
  • 理性思考的系统。
  • 像人类一样行事的系统。
  • 理性运作的系统。


经过多年对完成这些任务的能力持乐观态度后,该领域面临着如何表示在应用中有用的智能的挑战。其中包括基础知识的缺乏、计算的复杂性以及知识表示结构的局限性(Russell,S&Norvig,“人工智能:现代方法”,Peter,2009) 。但挑战不仅仅来自设计界。自柏拉图时代以来一直关注心灵和推理的哲学家们也开始抱怨。他们利用数学反对意见(基于图灵和哥德尔)和关于人类智能本质的更多哲学论证,试图展示人工智能项目的内部限制。其中最著名的是休伯特·德雷福斯。


休伯特·德雷福斯谈人工智能

德雷福斯将人工智能的目标和方法视为清晰的理性主义智能观。历史上许多理性主义哲学家都为这一点辩护,但德雷福斯本人更多的是20世纪反理性主义哲学的支持者,这一点可以从海德格尔、梅洛-庞蒂和维特根斯坦的著作中看出。德雷福斯认为,最基本的认知方式是直觉,而不是理性。在某个领域获得经验后,一个人只有在第一次学习论证时才会对形式化规则产生依恋。此后,智力更有可能由经验规则和直觉决策来代表。


人工智能的理性方法可以在所谓的符号人工智能的基础上清晰地追溯。智能过程被视为信息处理的一种形式,并且该信息的表示是符号性的。因此,智力或多或少局限于符号的操纵。德雷福斯将此分析为三个基本假设的组合:


  • 人类智力基于符号操纵规则的心理学假设。
  • 认识论假设是所有知识都是形式化的。
  • 本体论假设是现实具有形式化的结构。


德雷福斯不仅批评了这些假设,还定义了一些他认为对情报至关重要的概念。德雷福斯认为,智力是体现和定位的。该实施例很难解释,因为尚不清楚这是否意味着智力需要身体,或者是否只能在身体的帮助下才能发展。但至少很明显,德雷福斯认为智力取决于智力主体所处的环境,以及元素与其背景的有意义的关系。这可以防止现实被简化为形式化实体。德雷福斯的观点使得机器无法在明确定义的正式区域之外操作符号。


德雷福斯对人工智能的联结主义方法持更为积极的态度。这种方法看到了从类似于人脑神经元及其连接的建模结构中出现的智能行为。但他怀疑人类大脑的复杂性在此类机器中是否可能存在。


由此,德雷福斯发起了关于人工智能目标可行性的讨论。他的作品引起了广泛的关注并引发了激烈的争论。他甚至设法让一些研究人员改变他们的观点,并开始实施更符合他愿景的系统。德雷福斯论证了符号人工智能所做的假设,并澄清这些假设是否会产生真正的智能机器并不明显Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer


然而,有两点需要说明。首先,德雷福斯的批评基于严格的符号人工智能方法。近几十年来,人们多次尝试创建更多混合智能系统并在符号人工智能中实施非基于规则的方法。这些系统提出了一种不同的情报观点,德雷福斯的分析无法完全解释这一观点。其次,德雷福斯的批评似乎是基于对人工智能的怀疑态度,部分原因是他自己的哲学背景,部分原因是其基础是在热情几乎无限的时代建立的。


自由意志是一个奇怪的概念。哲学可以通过多种方式讨论人类思想,但当涉及到我们是否可以自由决策的问题时,讨论就变得危险了。我们对意志、决定和行动的思考如此熟悉,以至于我们大多拒绝考虑我们在选择上不自由的可能性。但还有其他事情。如果我在这样的讨论中说人类根本不存在自由意志呢?如果它是假的,我就错了;如果它是真的,那么整句话就失去了意义,因为我除了这么说之外什么也做不了。否认自由意志是一个务实的矛盾。你不能否认一个人的自由意志而不会使这种否认变得毫无意义。


然而,自由意志的问题似乎是相关的,因为科学理论可以声称发生的一切都遵循自然法则。因此,如果我们不想成为被决定的有机机器,我们要么需要赋予人们特殊的属性,要么否认自然法则是被决定的。第一个选项与许多哲学理论有关,但最重要的是与笛卡尔的理论有关,笛卡尔将世界分为两种在人类中相互联系的实体(精神和物质)。第二种选择开辟了更全面的视野,利用物理学的最新发展(相对论、量子力学)来表明我们的自由意志可以基于不可预测的自然动力学。


笛卡尔等人的二元论观点否认人类以外的事物存在自由意志。因此,关于自由意志和智能机器的讨论并不是特别有趣。另一方面,整体观更适合这样的讨论,但除了将自由意志属性赋予人类或计算机所需的物理假设之外,很难得出任何其他结论。这可能适合纯粹的哲学讨论,但与计算机科学关系不大。


还有可能认识到人性本质上是矛盾的,因为决定论和自由意志的观点都是合理和必要的。这种辩证的方法使我们能够思考人类的自由意志,而不必担心物理预设。自由意志成为人类的超越前提。然而,这种方法中自由意志的先验观点不允许在智能机器等特定制品中讨论自由意志,因为不可能建模或设计先验预设。在本节中,我将把自由意志这个复杂的概念转化为可以用来分析智能机器的概念。这个概念应该与技术哲学中的经验方法相兼容。因此,我们应该避免从物理或先验预设的角度来谈论自由意志的概念,而应该关注这个概念在社会中所扮演的角色。


我在本文中的方法的提示可以在介绍性段落中找到。我对自由意志辩论的看法是,该领域的任何研究都有两种根本不同的方法。第一个重点关注自由意志本质和人们避免自然“要求”的能力的深刻哲学问题。我将其称为物理方法。在关于智能机器的文章中,这引发了一场哲学辩论,这场辩论的重点是人类的本质,而不是计算机的本质,因为我们陷入了无论如何都必须捍卫自己的意志并说出一些关于计算机,因为我们只是想写一篇关于它的文章。换句话说,讨论变成了人类与计算机的比较,人类和计算机都无法认识自己。


本节第一段巧妙地提出了另一种方法,重点是否认我们自己的自由意志是不可能的。如前所述,这种否认毫无意义。但这不仅贬低了自身的价值,还破坏了整个责任的基础。这意味着我们不能因为人们的言行而赞扬或指责他们,因此我们必须重新考虑管辖权、工作、友谊、爱情以及我们社会赖以建立的一切原则。所有这些社会问题都需要选择,而每当涉及选择时,自由意志的概念就必不可少。其本质是,自由意志是我们社会的一个重要假设,无论它是否在物理上合理。我将其称为社交方法。


自由意志的推定是否只对我们的社会或任何人类社会来说是必要的,这是一个难题。无论如何,我都会研究这个问题,因为它可能为自由意志的重要性提供更多的哲学论证,而不是简单地指出我们自己社会的结构。如果不重新考虑人性并重新引入自由意志的物理方法,似乎不可能回答这个问题。但当我们说互动是人类文明的核心时,自然就需要自由意志的概念。如果不假设人们可以自由影响互动过程,我们就无法与人互动,因为任何人际互动都意味着我们事先不知道结果。因此,互动的特点是选择,因此也具有自由意志的概念。如果互动在任何社会中都是基础,那么我们还必须声明,自由意志在任何社会中都不能被否认。


人工智能哲学的不同方法

符号人工智能 (AI) 是人工智能的一个子领域,专注于处理和操纵符号或概念,而不是数字数据。符号人工智能的目标是通过基于逻辑规则表示和操纵知识和推理,创建能够像人类一样推理和思考的智能系统。


符号人工智能的算法通过处理代表世界中的对象或概念及其联系的符号来工作。符号人工智能的主要方法是使用逻辑编程,其中使用规则和公理来得出结论。例如,我们有一个符号人工智能系统,旨在根据患者报告的症状诊断疾病。该系统有一套规则和公理,用于得出有关患者病情的结论。


例如,如果患者报告发烧,系统可以应用以下规则:如果患者发烧并且他/她咳嗽并且他/她呼吸困难,那么患者可能患有肺炎。


然后系统会检查患者是否也有咳嗽、呼吸困难的症状,如果有,就会断定患者可能患有肺炎。


这种方法非常容易解释,因为我们可以轻松地将推理过程追溯到所应用的逻辑规则。当新信息可用时,它还可以轻松更改和更新系统规则。


符号人工智能使用逻辑等形式语言来表示知识。这些知识通过使用算法来操作符号的推理机制进行处理。这允许创建专家系统和决策支持系统,可以根据预定义的规则和知识得出结论。


符号人工智能不同于机器学习和深度学习等其他人工智能方法,因为它不需要大量的训练数据。相反,符号人工智能基于知识表示和推理,这使得它更适合知识明确定义并可以用逻辑规则表示的领域。


另一方面,机器学习需要大量数据集来学习模式并做出预测。深度学习使用神经网络直接从数据中学习特征,这使其适用于具有复杂和非结构化数据的领域。


应用每种技术时取决于主题领域和可用数据。符号人工智能适用于具有明确定义和结构化知识的领域,而机器和深度学习适用于具有大量数据和复杂模式的领域。


人工智能哲学的联结主义方法基于神经网络的原理及其与人脑的相似性。这种方法旨在模仿生物系统中互连神经元的行为来处理信息并从数据中学习。以下是联结主义方法的一些关键方面。


连接主义方法涉及创建由互连节点组成的人工神经网络,通常称为人工神经元或节点。这些人工神经元被设计为接收输入数据、执行计算并将信号传输到网络中的其他神经元。


联结主义方法假设网络中的人工神经元一起工作来处理信息。每个神经元接收输入信号,根据这些信号执行计算,并将输出信号传输到其他神经元。网络的输出由神经元的集体活动决定,而信息则通过神经元之间的连接流动。连接主义方法的一个重要方面是人工神经网络从数据中学习的能力。在学习过程中,网络根据输入数据和期望的结果调整神经元之间的连接强度(权重)。基于网络的预测输出与预期结果的迭代比较,更新权重以最小化差异并提高网络性能。


连接主义系统强调并行处理,即在网络上同时执行多个计算。这确保了信息处理的高效和可靠。此外,联结主义模型使用分布式表示,这意味着信息在多个神经元中编码,而不是定位在单个位置。这种分布式表示使网络能够处理复杂的模式并根据有限的示例进行总结。


连接主义方法是深度学习的基础,深度学习是人工智能的一个子领域,专注于训练多层深度神经网络。深度学习模型在计算机视觉、自然语言处理和语音识别等各个领域都非常成功。他们展示了自动学习分层数据表示的能力,这在复杂任务中提供了先进的性能。


总的来说,人工智能哲学的联结主义方法强调使用人工神经网络来模仿人脑处理的协作和并行本质。通过使用权重调整从数据中学习,连接主义系统已被证明可以非常有效地解决复杂问题并在人工智能应用中取得令人印象深刻的结果。


神经网络是一种受生物神经网络(例如人脑)的结构和功能启发的计算模型。它是由分层排列的互连节点(人工神经元)组成的数学结构。神经网络旨在处理和学习数据,使它们能够识别模式、做出预测并执行各种任务。


人工神经元是神经网络的基本单元。每个神经元接收一个或多个输入数据,对其进行计算,并产生输出数据。输出数据通常传输到网络中的其他神经元。


神经网络中的神经元通过代表它们之间信息流的连接相互连接。每个连接都与确定所传输信号的强度或重要性的权重相关。在学习过程中调整权重因子以优化网络性能。


神经网络通常分层排列。输入层接收初始数据,而输出层产生最终结果或预测,中间可能有一个或多个隐藏层。隐藏层允许网络通过转换和组合输入信息来学习复杂的表示。


每个神经元将激活函数应用于其输入数据的加权总和以产生输出信号。激活函数给网络带来了非线性,使其能够对复杂的连接进行建模并进行非线性预测。


神经网络基于前馈原理处理数据。输入数据逐层通过网络,并在每个神经元上执行计算。一层的输出作为下一层的输入,直到生成最终结果。


神经网络通过称为训练的过程来学习数据。在训练期间,输入数据与相应的所需输出一起呈现给网络。通过将其预测与期望结果进行比较,使用梯度下降和反向传播等算法来调整网络的权重。这个迭代过程使网络能够最小化其预测与预期结果之间的差异。


深度神经网络(DNN)是指具有多个隐藏层的神经网络。深度学习专注于训练深度神经网络,由于其能够自动学习层次表示并从数据中提取复杂模式,近年来引起了相当大的关注。


神经网络在多个领域都非常成功,包括图像识别、自然语言处理、语音合成等。它们能够处理大量数据,根据示例进行总结,并执行复杂的计算,这使它们成为人工智能领域的强大工具。


人工智能领域的哲学问题与争论


“没有人知道物质如何具有意识。甚至没有人知道对某种物质如何具有意识有哪怕一丁点想法会是什么样子。” (Jerry Fodor,Ernest Lepore,“整体论:购物者指南”,Blackwell,1992) 。这些话被认为是杰里·福多尔(Jerry Fodor)说的,我相信它们解释了我在试图弄清楚机器如何具有意识时所面临的所有困难。然而,这些话并不鼓励我放弃声称可以创造具有人工意识的机器的尝试。事实上,他们的做法恰恰相反。他们鼓励我思考,如果我们(物质存在)可以有意识,那么意识一定是物质的,因此,从理论上讲,它可以被人为创造。


意识中的关键点是,这不是一件事。它是一组多态概念,所有这些概念都以不同的方式混合在一起。因此,很难将它们全部理清并尝试分别解释每一个。牢记这一点很重要,因为虽然我尽力解释其中的某些方面,但它们之间的相互联系使其变得困难。在我的结论中,我尝试结合所有这些概念来证明虚拟机中强人工意识的可行性。


一般来说,人工意识(以下简称AC)分为弱AC和强AC两部分。弱AC是“有意识行为的模拟”。它可以作为一个智能程序来实现,在一定的细节水平上模拟有意识的行为,而无需了解产生意识的机制。强大的 AC 是“来自复杂计算机器(人工大脑)的真正有意识的思维。在这种情况下,与其自然等效物的主要区别取决于生成该过程的硬件。”然而,有一些学者,比如克里斯利,认为 AC 存在许多中间区域,他称之为人工意识滞后。


随着计算创新每年呈指数级增长,高功率交流电的可行性变得越来越重要。随着人工智能(以下简称AI)从科幻小说的页面走向科学领域,越来越多的科学家和哲学家正在仔细审视它。包括斯蒂芬·霍金、埃隆·马斯克和比尔·盖茨在内的许多世界领先思想家最近签署了一封公开信,呼吁负责任地使用人工智能并造福全人类。这种说法并不是指这种人工智能(纯智力),也与所谓的“机器问题”无关,后者提出了这样的问题:“我们应该如何对人工智能进行编程?”即应该教授什么伦理学说以及为什么?


尽管这些主题很有趣且极其重要,但这里根本没有足够的时间对这些问题进行深入分析。有关这方面的更多信息,请参阅 Nick Bostrom、Miles Brundage 和 George Lazarus 等。


我们已经知道机器可以智能地行动;它可以使用逻辑来解决问题并找到解决方案,因为我们已经对其进行了编程,但人们对机器的现象意识能力的怀疑已经出现并普遍存在。我们与机器的不同之处在于,我们有感情、经验、自由意志、信仰等。尽管大多数人都同意我们的遗传学和生物学中有一定的“程序”,但他们确信自己可以做出自己的选择,并且人工计算机程序无法重现他们的第一个独特的个人主观体验。


然而,如果没有机会存在能够产生强大交流电的机器,这个说法就不会有趣。与强AC兼容的最常被引用的意识理论是功能主义。这意味着意识是由其功能定义的。它在理论上是简化的,但也存在某些类型的功能主义。该理论因其与艾伦图灵、图灵机和图灵测试的联系而闻名。作为行为主义的后裔,他(有时)持有一种关于心灵的计算观点,认为功能是意识的真正参数。在某种程度上,他还因未能解释现象意识、定性状态和感受性而闻名。尽管这个难题有很多答案,但我赞成本体论上保守的定性状态取消主义观点。使它成为取消主义的原因是我声称感受性,正如它们通常定义的那样,不可能存在。然而,我拒绝认为我们对感受性和定性状态的直觉理解是错误的。感受性的概念完全被误解了。它们可以人工创建。这是虚拟机更大功能主义的一个子理论,根据该理论,有意识的存在并不局限于一次特定的心理状态,而是总是同时处于多种状态。在虚拟机中,这是由不同的系统和子系统来解释的。


道德主体的最终标准(也是自治三条件理论的最终要求,即合理行事)是理性。对于人工智能来说,这个标准可能是争议最小的,这就是为什么我把它放在最后。理性和逻辑是流行文化中人工智能的定义特征。现代计算机和弱人工智能系统以其逻辑而闻名。它们执行大量计算,并且可以快速、合理地做出极其复杂的决策。然而,人工代理的合理性并非没有争议。如前所述,塞尔对机器实际思考和理解的能力提出了担忧,因为他声称没有语法可以等同于语义。我已经介绍了中文房间以及我对这个问题的回应,但我想再次强调意识的多态性以及在意识理论中考虑感受性和现象意识的重要性。


应该指出的是,自主理性和一般理性不是一回事。从自主性的角度来说,理性就是植入你的意志,让你超越“动物本能”,按照自己的理性规则生活,意味着先思考再行动。从这方面来说,现代计算机和弱人工智能系统的合理性并不是自治的。他们别无选择;他们只是做他们被编程的事情。在某些方面,这与上面讨论的算法的确定性遵循有关,因为它涉及自由选择。正如我们所看到的,虚拟机可能非常复杂:具有惊人的意识、非确定性(“自由”)、内在意图和敏感(能够体验信念、欲望、痛苦和快乐)。但归根结底,它仍然是一台机器。如果它要达到这种复杂程度,就必须经过精确、理性、算法和架构的设计,算法计算机的“冷理性”与意识相结合,使其具有自主理性。它的感受,即它的情绪、现象意识、体验痛苦/快乐的能力,以及因此它的信念和欲望将使它准备好克服享乐主义的感受并做出理性和自主的决定。


人工智能 (AI) 是当今一个非常活跃的研究领域。它成立于 20 世纪 50 年代,至今仍然存在。在人工智能的发展过程中,不同的研究方式鼓励了竞争,新的挑战和想法不断出现。一方面,理论发展存在很大阻力,但另一方面,技术进步却取得了辉煌的成果,这在科学史上是罕见的。


人工智能及其技术解决方案的目标是使用机器再现人类智能。因此,其研究对象是物质领域和精神领域重叠的,相当复杂。智能的特性决定了人工智能发展的曲折性,人工智能面临的许多问题都与哲学直接相关。不难发现,许多人工智能专家对哲学有着浓厚的兴趣;同样,人工智能的研究成果也备受哲学界关注。


认知研究作为人工智能现代科学的基础研究,其目的是清楚地了解人脑意识的结构和过程,以及为人类意识的智力、情感、意图的结合提供逻辑解释。 ,因为人工智能专家促进了这些意识过程的正式表达。为了模仿人类意识,人工智能首先必须学习意识的结构和运作。意识怎么可能?塞尔说:“解释某件事如何可能的最好方法就是揭示它实际上是如何存在的。”这使得认知科学能够推动人工智能的发展。至关重要的是,这是认知转变发生的最重要原因。正是由于哲学与认知心理学、认知神经科学、脑科学、人工智能等学科之间的协同关系,无论计算机科学技术如何发展,从物理符号系统、专家系统、知识工程到生物计算机及其发展的量子计算机。


它离不开哲学对人类意识全过程和各种因素的认识和理解。无论是人工智能的强流派还是弱流派,从认识论的角度来看,人工智能都是依靠物理符号系统来模拟人类思维的某些功能。然而,它对人类意识的真正模拟不仅取决于机器人本身的技术创新,还取决于对意识过程及其影响因素的哲学理解。从目前来看,人工智能的哲学问题并不是人工智能的本质是什么,而是一些更具体的智力建模问题的解决。


关于意向性问题,机器可以有思想或意识吗?如果是的话,是否可以故意伤害人?


关于计算机是否有意的争论可以总结如下:


  1. 什么是意向性?机器人按照指令以某种方式行动是有意的吗?


  2. 人们在行动之前就已经知道自己在做什么。他们有自我意识,知道自己的行为会导致什么。这是人类意识的一个重要特征。那么,我们应该如何理解机器人按照指令做出某种行为呢?


  3. 意向性可以编程吗?


    塞尔认为,“大脑创造心脏的方式不能是简单地操作计算机程序的方式”。相反,人们应该问:意向性是一种可理解的精神吗?如果能理解,为什么不能编程呢?塞尔认为计算机有语法但没有语义。但事实上,语法和语义是一个二合一的问题,它们永远不会分开。如果一个程序可以将语法和语义结合在一起,我们还需要区分语法和语义吗?塞尔认为,即使计算机有意复制,复制品也不是原件。事实上,当我们对人类认知及其与人类行为的联系有清晰的了解时,我们应该能够对我们的心理过程与人类大脑行为之间的联系进行编程,并输入我们所认识的各种人。这就是使计算机“无所不知”的信息。然而,那时的我们能像塞尔所说的那样吗?人工智能不是智能吗?人工智能是否因为缺乏人类蛋白质和神经细胞而没有意向性和思维过程?故意抄袭算“故意”吗?抄袭理解是真正的“理解”吗?重复的想法是“思考”吗?重复思考是“思考”吗?我们的答案是,基础不同,但功能是一样的。依靠不同的基础形成相同的功能,人工智能只是我们人类智能的一种特殊实现方式。塞尔用意向性来否认人工智能的深度。虽然人工智能可以模拟人类思维是有一定基础的,但即使人们认为人工智能和人类智能存在显着差异,那么我们也会觉得这种差异不再相关。塞尔的观点只能再次迷惑人心!



至于智能问题,机器能否像人类一样利用智能解决问题?或者机器解决任何复杂问题的智能是否存在极限?


人们可以无意识地使用所谓的隐藏能力,根据波兰尼的说法,“人们知道的比他们能表达的要多”。这涉及骑自行车和热身,以及更高水平的实践技能。不幸的是,如果我们不理解规则,我们就无法将规则传授给计算机。这就是波兰尼悖论。为了解决这个问题,计算机科学家并没有试图改变人类智能,而是为人工智能发展了一种新的思维方式——通过数据进行思维。


微软研究院高级研究科学家里奇·卡鲁阿纳(Rich Caruana)表示:“你可能认为人工智能的原理是我们首先了解人类,然后用同样的方式创造人工智能,但事实并非如此。”他说,“以飞机为例。它们是在人们对鸟类如何飞行有任何了解之前就已经制造出来的。空气动力学的原理是不同的,但今天我们的飞机比任何动物飞得更高更快。”


今天的人们普遍认为智能计算机将取代我们的工作。在你吃完早餐之前,它就已经完成了你每周的工作量,他们不需要休息、喝咖啡、退休,甚至不需要睡觉。但事实是,虽然未来许多任务将实现自动化,但至少在短期内,这种新型智能机器很可能与我们合作。


人工智能的问题是波兰尼悖论的现代版本。我们并不完全了解人脑的学习机制,所以我们让人工智能像统计一样思考。讽刺的是,我们目前对人工智能如何思考知之甚少,所以我们有两个未知的系统。这通常被称为“黑匣子问题”:你知道输入和输出数据,但你不知道你面前的盒子是如何得出结论的。卡鲁阿纳说:“我们现在拥有两种不同类型的智能,但我们无法完全理解这两种智能。”


人工神经网络没有语言能力,因此它无法解释它在做什么以及为什么,而且它缺乏常识,就像任何人工智能一样。人们越来越担心一些人工智能操作有时会隐藏有意识的偏见,例如性别歧视或种族歧视。例如,最近有一款软件可以用来评估犯罪分子重复犯罪的概率。这对黑人来说是两倍的严厉。如果他们收到的数据无可挑剔,他们的决定可能是正确的,但大多数情况下会受到人为偏见的影响。


至于伦理问题,机器会对人类造成危险吗?科学家如何确保机器行为符合道德并且不会对人类构成威胁?


关于机器是否能够感受到爱或恨等情感,科学家们存在很多争论。他们还认为,人类没有理由期望人工智能有意识地争取善恶。在考虑人工智能如何成为一种风险时,专家认为最有可能出现两种情况:


  • 人工智能旨在执行破坏性任务:自主武器是旨在杀人的人工智能系统。这些武器如果落入恶人之手,很容易造成不小的伤害。此外,人工智能军备竞赛还可能在不经意间引发一场人工智能战争,造成大量受害者。为了避免敌方干扰,“封闭”武器程序将被设计得极其复杂,因此人类在这种情况下也可能失去控制。虽然这种风险也存在于特殊人工智能(狭义人工智能)中,但随着智能人工智能和更高水平的自我指导,这种风险将会增加。


  • 人工智能被设计用来执行有用的任务,但它执行的过程可能具有破坏性:当人类和人工智能的目标尚未完全一致时,就会发生这种情况,而解决人类和人工智能的目标一致并不是一件容易的事。试想一下,如果你叫一辆智能汽车以尽可能快的速度送你去机场,它可能会拼命听从你的指令,甚至以你不想要的方式:你可能会被直升机追赶,或者因为超速而呕吐。如果超级智能系统的目的是一个雄心勃勃的地球工程项目,那么副作用可能是生态系统的破坏,而人类试图阻止这种情况将被视为必须消除的威胁。


至于概念性问题,人工智能的概念基础存在问题。


任何科学都是建立在它所知道的基础上的,甚至科学观察的能力也与众所周知的事物联系在一起。我们只能依靠已知的来了解未知的事物。已知与未知永远是一对矛盾体,它们总是共存、相互依存。没有已知,我们就无法学习未知;没有已知,我们就无法学习未知。没有未知,我们就无法确保科学知识的发展和演变。有大量证据表明,当人们观察物体时,观察者获得的体验并不是由进入眼球的光线决定的。信号不仅由观察者视网膜上的图像决定。即使两个人看同一个物体也会产生不同的视觉印象。正如汉森所说,当观察者观察一个物体时,他看到的不仅仅是眼球所接触到的东西。观察对于科学非常重要,但是“关于观察的陈述必须以特定理论的语言进行”。 “关于观察结果的陈述是公共话题,并且是用公共语言做出的。它们包含不同程度的普遍性和复杂性的理论。”这说明观察需要理论。科学需要理论作为前身,科学的认识并不是建立在未知的基础上。企业往往缺乏对其业务的最佳选择的了解,人工智能咨询服务正在尝试用人工智能来引导业务。


哲学对人工智能发展和应用的影响


尽管方法存在明显差异,但技术(一般而言)和哲学有相同的兴趣对象:人。


技术开发的目的是解决日常生活中的具体实际问题,从而在不久的将来增加其对人类的有用性。但在大多数情况下,技术发展的范围并没有超出其解决的实际和当前问题。如果技术上能解决问题,根本就没有必要这样做。技术始终追求一个目标:有用。这似乎是一种纯粹的工具性方法(M. Taddeo 和 L. Floridi,“人工智能如何成为一股向善的力量”,《科学》,2018 年 8 月),很少关心其产品的副作用。


相比之下,哲学不仅涉及当前问题和人类存在的实际方面。为了对特定主题形成尽可能广泛的观点,哲学分析不仅考察研究对象本身,而且考察其伦理含义和对人类事务的其他可能影响。其中一部分是对价值观的出现、发展和本质的研究。因此,认真分析和批判一般立场和时事,寻找特定价值体系的变化,是哲学领域的主要任务。


哲学与技术:矛盾还是共生?

简而言之,哲学通常会提出新的问题和问题,而技术尤其是人工智能的目的自然是解决具体的和现有的问题。鉴于此,这两个领域之间的共生乍一看似乎是矛盾的。


然而,通过提出越来越多的新问题和批评提出的技术解决方案,特别是通过以精确的哲学方式审视根本问题,技术可以提供长期且更详细的解决方案。哲学为这一预期过程提供了工具,例如逻辑分析、伦理和道德检验,以及提出正确问题的深刻方法论。客观地来看:人工智能将如何影响未来的工作?


这无疑补充了新技术的前瞻性发展。当开发过程考虑到问题和所提出的技术解决方案的尽可能多的可能结果时,未来的问题就可以以可持续的方式得到解决。所有这些都适用于作为技术子集的人工智能,它现在应该被定义为“创造智能机器,特别是智能软件的科学和技术” (“更接近机器:人工智能的技术、社会和法律方面” ,维多利亚州信息专员办公室,Toby Walsh、Kate Miller、Jake Goldenfein、Fang Chen、Jianlong Zhou、Richard Nock、Benjamin Rubinstein、Margaret Jackson,2019)。


但人工智能与哲学之间的联系更为深远。


人工智能与哲学:特殊的联系

计算机科学家约翰·麦卡锡已经强调了人工智能和哲学之间的独特联系。尽管哲学总体上补充了所有技术科学,但它对于人工智能作为一门特殊学科来说甚至至关重要,并为该领域提供了基本的方法论。


哲学家们提出了人工智能的一些基本概念。例子包括“......研究一件人工制品必须具备的特征才能被认为是智能的” (“工业革命:工业世界的 4 次主要革命”,Sentryo,2017 年 2 月 23 日) ,或者基本的理性的概念,也是从哲学话语中出现的。


在这种背景下更有趣的是,需要哲学来指导人工智能的进化并组织其融入我们的生活,因为它不仅涉及琐碎的技术,还涉及全新的、未经探索的伦理和社会问题。