paint-brush
认知范式:探索受大脑启发的 AI 开发经过@edemgold
1,468 讀數
1,468 讀數

认知范式:探索受大脑启发的 AI 开发

经过 Edem Gold13m2023/05/10
Read on Terminal Reader

太長; 讀書

在本文中,我们将尝试了解以大脑为灵感的方法来构建 AI 系统。我们将讨论科学家 Norman Weiner 如何实现神经科学和计算机科学的融合。 Frank Rosenblatt 的 Perceptron 是第一次真正尝试模仿人类智能,以及它的失败如何带来开创性的工作,成为神经网络的平台。
featured image - 认知范式:探索受大脑启发的 AI 开发
Edem Gold HackerNoon profile picture


“我们的智慧使我们成为人类,人工智能是这种品质的延伸”——严乐存


神经网络(也称为人工神经网络)问世以来,人工智能行业取得了空前的成功。神经网络是现代人工智能系统背后的驱动力,它们以人脑为模型。现代人工智能研究涉及创建和实施旨在模仿人脑神经过程的算法,以创建以类似于人类的方式学习和行动的系统。


在本文中,我们将尝试了解以大脑为灵感的方法来构建AI 系统。值得注意的是,虽然这个话题本质上是一个广泛的话题,但我会尽可能简短。我计划将具有更复杂子分支的子主题作为独立文章处理,当然,我会在文章末尾留下参考文献。


内容细分

我希望如何解决这个问题:

  • 受大脑启发的 AI 方法的历史:在这里,我们将讨论科学家 Norman Weiner ann Warren McCulloch 如何带来神经科学和计算机科学的融合,Frank Rosenblatt 的感知器如何成为模仿人类智能的第一次真正尝试,以及它如何失败带来了开创性的工作,可以作为神经网络的平台。


  • 人脑如何工作及其与 AI 系统的关系:在本节中,我们将深入探讨以脑为灵感的 AI 方法的生物学基础。我们将讨论人脑的基本结构和功能,了解其核心组成部分神经元,以及它们如何协同工作以处理信息和实现复杂动作。


  • 类脑人工智能方法背后的核心原则:在这里,我们将讨论类脑人工智能方法背后的基本概念。我们将解释诸如此类的概念;神经网络、分层处理和可塑性,以及并行处理、分布式表示和循环反馈技术如何帮助 AI 模仿大脑的功能。

  • 构建以人脑为模型的人工智能系统的挑战:在这里,我们将讨论尝试构建模仿人脑的系统所固有的挑战和局限性。挑战,例如;大脑的复杂性和统一认知理论的缺乏探索了解决这些挑战和局限性的方法。


让我们开始吧!


人工智能的大脑启发方法的历史

建造具有智能行为能力的机器的动力在很大程度上要归功于麻省理工学院教授,诺伯特·韦纳.诺伯特·韦纳 (Norbert Weiner) 是一位神童,三岁时就能阅读。他在数学、神经生理学、医学和物理学等各个领域都有广泛的知识。


Norbert Weiner 认为,科学的主要机遇在于探索他所谓的边界区域——研究领域并不明确属于某个学科,而是学科的混合体,例如医学和工程学的研究,它们共同创造了一个领域医学工程-,他被引述说:


“如果一个生理问题的难度在本质上是数学的,那么十个不懂数学的生理学家所达到的程度恰好等于一个不懂数学的生理学家”


1934 年,韦纳和其他几位学者每月聚会一次,讨论涉及边界区域科学的论文。



这是对不成熟的想法、不充分的自我批评、夸大的自信和浮夸的完美宣泄——诺曼·韦纳


从这些会议和他自己的个人研究中,维纳了解了生物神经系统的新研究以及电子计算机的开创性工作,他自然而然地倾向于融合这两个领域。因此,神经科学和计算机科学之间形成了一种关系。正如我们所知,这种关系成为创造人工智能的基石。


二战后,维纳开始形成关于人类和机器智能的理论,这个新领域被命名为控制论.维纳对控制论的尝试成功地让科学家们开始谈论生物学与工程学融合的可能性。其中一位科学家是一位神经生理学家,名叫沃伦麦卡洛克,然后从哈弗福德大学辍学,前往耶鲁大学学习哲学和心理学。


在纽约参加一个科学会议时,他接触到了同事们撰写的关于生物反馈机制的论文。次年,麦卡洛克与他 18 岁才华横溢的弟子沃尔特·皮茨 (Walter Pitts) 合作,提出了一个关于大脑如何工作的理论——该理论有助于培养人们普遍认为计算机和大脑以相同方式运作的观点。


他们的结论基于 McCulloch 对神经元处理二进制数的可能性的研究(对于无知者,计算机通过二进制数进行通信)。该理论成为第一个人工神经网络模型的基础,该模型被命名为 McCulloch-Pitts 神经元 (MCP)。


MCP 是创建第一个神经网络的基础,后来被称为感知器.感知器是由心理学家创造的,弗兰克·罗森布拉特受大脑中突触的启发,他决定既然人脑可以通过突触(神经元之间的通信)处理和分类信息,那么数字计算机也许可以通过神经网络来做同样的事情。


感知器本质上是将 MCP 神经元从一个人工神经元扩展为神经元网络,但不幸的是,感知器存在一些限制其实际应用的技术挑战,其最显着的限制是无法执行复杂的操作(例如在多个神经元之间进行分类)比一个项目,例如,感知器不能在猫、狗和鸟之间进行分类)。


1969年,一本书由马文·明斯基西摩帕尔特标题为Perceptron 的论文详细阐述了 Perceptron 的缺陷,因此,人工神经网络的研究停滞不前,直到 Back Propagation 的提出保罗韦博斯.


反向传播希望解决当时阻碍神经网络工业应用的复杂数据分类问题。它的灵感来自突触可塑性;大脑改变神经元之间连接强度的方式,从而提高性能。反向传播旨在模仿大脑中通过称为权重调整的过程加强神经元之间联系的过程。


尽管 Paul Werbos 很早就提出了反向传播的概念,但直到研究人员如大卫·鲁梅尔哈特,杰弗里·欣顿, 和罗纳德·威廉姆斯发表的论文证明了反向传播对训练神经网络的有效性。反向传播的实施导致了深度学习的产生,它为世界上大多数可用的人工智能系统提供动力。


“人们比今天的计算机更聪明,因为大脑采用了一种基本的计算架构,更适合处理人们非常擅长的自然信息处理任务的核心方面。” - 并行分布式处理



人脑如何工作以及它与人工智能系统的关系



我们已经讨论了研究人员如何开始模拟 AI 以模仿人脑,现在让我们看看大脑如何工作并定义大脑与 AI 系统之间的关系。

大脑如何工作:简单描述

人脑本质上是通过使用神经元来处理思想,一个神经元由 3 个核心部分组成;树突、轴突和胞体。树突负责接收来自其他神经元的信号,体细胞处理从树突接收到的信息,轴突负责将处理后的信息传递给序列中的下一个树突。


要了解大脑如何处理思想,假设您看到一辆汽车朝您驶来,您的眼睛会立即通过视神经向大脑发送电信号,然后大脑形成一连串的神经元来理解传入的信号。链中的第一个神经元通过其树突收集信号并将其发送到Soma以在 Soma 完成其任务后将信号发送到轴突,然后将其发送到链中下一个神经元的树突,传递信息时轴突和树突之间的连接称为突触。整个过程一直持续到大脑找到智颞突触输入(这是科学术语;大脑继续处理,直到找到对发送给它的信号的最佳响应),然后它向必要的效应器发送信号,例如,你的腿和然后大脑向你的腿发出信号,让你逃离迎面而来的汽车。


大脑与人工智能系统之间的关系

大脑和人工智能之间的关系在很大程度上是互惠互利的,大脑是人工智能系统设计背后的主要灵感来源,人工智能的进步使人们更好地了解大脑及其工作原理。


在大脑和人工智能方面存在知识和思想的相互交流,有几个例子证明了这种关系的积极共生性质:


  • 神经网络:可以说,人脑对人工智能领域产生的最重大影响是神经网络的创建。本质上,神经网络是模仿生物神经元功能和结构的计算模型,神经网络的体系结构及其学习算法在很大程度上受到大脑中神经元相互作用和适应方式的启发。


  • 大脑模拟:人工智能系统已被用于模拟人脑并研究它与物理世界的相互作用。例如,研究人员拥有机器学习技术来模拟参与视觉处理的生物神经元的活动,其结果提供了对大脑如何处理视觉信息的洞察力。


  • 洞察大脑:研究人员已经开始使用机器学习算法来分析大脑数据和 fMRI 扫描并从中获得洞察力。这些见解有助于识别原本隐藏的模式和关系。获得的见解可以帮助理解内部认知功能、记忆和决策,它还有助于治疗阿尔茨海默氏症等脑源性疾病。


类脑人工智能方法背后的核心原则

在这里,我们将讨论几个有助于 AI 模仿人脑运作方式的概念。这些概念帮助 AI 研究人员创建了能够执行复杂任务的更强大、更智能的系统。

神经网络

如前所述,神经网络可以说是人类大脑对人工智能领域产生的最重大影响。本质上,神经网络是模仿生物神经元功能和结构的计算模型,网络由多层相互连接的节点组成,称为人工神经元,有助于信息的处理和传输,类似于人类所做的生物神经网络中的树突、胞体和轴突。神经网络旨在像大脑一样从过去的经验中学习。

分布式表示

分布式表示只是一种将神经网络中的概念或想法编码为网络中多个节点的模式以形成模式的一种方式。例如,吸烟的概念可以使用神经网络中的一组特定节点来表示(编码),因此如果该网络出现一个男人吸烟的图像,它就会使用这些选定的节点来理解图像(它是比这复杂得多,但为了简单起见),这种技术帮助人工智能系统记住复杂的概念或概念之间的关系,就像大脑识别和记住复杂刺激的方式一样。

经常性反馈

这是一种用于训练 AI 模型的技术,其中神经网络的输出作为输入返回,以允许网络将其输出集成为训练中的额外数据输入。这类似于大脑如何利用反馈回路来根据以前的经验调整其模型。

并行处理

并行处理涉及将复杂的计算任务分解成更小的位,以便在另一个处理器上处理更小的位,从而提高速度。这种方法使 AI 系统能够更快地处理更多输入数据,类似于大脑能够同时执行不同任务(多任务处理)的方式。

注意力机制

这是一种使 AI 模型能够专注于输入数据的特定部分的技术,通常用于包含复杂繁琐数据的自然语言处理等领域。它的灵感来自于大脑仅关注主要分散注意力的环境中特定部分的能力;喜欢你从嘈杂的对话中调谐到一个对话中并与之互动的能力。

强化学习

强化学习是一种用于训练人工智能系统的技术,它的灵感来自于人类如何通过反复试验来学习技能。它涉及 AI 代理根据其行为接收奖励或惩罚,这使代理能够从错误中吸取教训,并在未来的行动中更有效率(这种技术通常用于创建游戏)。

无监督学习

大脑不断接收声音、视觉内容、皮肤感觉等形式的新数据流,它必须理解所有这些,并试图对所有这些看似不同的事件如何形成连贯和合乎逻辑的理解影响其物理状态。

打个比方,你感觉到水滴在你的皮肤上,你听到屋顶上的水滴快速滴落的声音,你感觉到你的衣服越来越重,在那一瞬间,你知道要下雨了,然后搜索你的记忆库确定你是否带了雨伞,如果带了,你就没事,否则,你检查一下从你当前位置到你家的距离,如果它很近,你就没事,否则你试着衡量雨的强度如果是小雨,你可以尝试继续回家的旅程,但如果是阵雨,你就必须找到避难所。


理解看似不同的数据点(水、声音、感觉、距离)的能力在人工智能中以一种称为无监督学习的技术的形式实现。这是一种人工智能训练技术,在这种技术中,人工智能系统被教导在没有明确标记的情况下理解原始的、非结构化的数据(没有人告诉你雨在下,是吗/)。

构建类脑人工智能系统的挑战

我们已经讨论了将大脑用作 AI 系统灵感的方法是如何产生的、大脑与 AI 的关系以及大脑启发 AI 背后的核心原则。在本节中,我们将讨论构建以人脑为模型的人工智能系统所固有的一些技术和概念挑战。

复杂

这是一个相当艰巨的挑战。受大脑启发的 AI 方法基于对大脑进行建模并根据该模型构建 AI 系统,但人脑是一个天生复杂的系统,拥有 1000 亿个神经元和大约 600 万亿个突触连接(每个神经元平均有 10,000 个突触连接)与其他神经元的连接),并且这些突触不断以动态和不可预测的方式相互作用。构建旨在模仿并有望超越这种复杂性的人工智能系统本身就是一个挑战,需要同样复杂的统计模型。

训练大型模型的数据要求

Open AI 的 GPT 4,目前是基于文本的 AI 模型的前沿,需要 47 GB 的数据,相比之下,其前身 GPT3 是在 17 GB 的数据上训练的,大约低了 3 个数量级,想象一下 GPT 5 将接受多少训练。


事实证明,为了获得可接受的结果,受大脑启发的 AI 系统需要大量数据和任务数据,尤其是听觉和视觉任务,这非常重视数据收集管道的创建,例如,特斯拉已经7.8 亿英里的驾驶数据及其数据收集管道每 10 小时又增加一百万英里。

能源效率

构建模拟大脑能量效率的类脑人工智能系统是一项巨大的挑战。人脑消耗大约 20 瓦的功率,相比之下,特斯拉的自动驾驶仪,在专用芯片上,每秒消耗大约 2,500 瓦,并且它需要大约7.5 兆瓦时 (MWh) 来训练ChatGPT大小的 AI 模型。


可解释性问题

开发可以被用户信任的受大脑启发的 AI 系统对于 AI 的发展和采用至关重要,但问题就在于此,AI 系统本应模仿的大脑本质上是一个黑匣子。大脑的内部运作并不容易理解,这是因为缺乏关于大脑如何处理思想的信息。不乏对人脑的生物结构如何研究,但对大脑的功能品质,即思想如何形成,似曾相识如何发生等,在一定程度上缺乏实证信息,这导致构建受大脑启发的 AI 系统中的一个问题。

跨学科要求

构建类脑人工智能系统需要不同领域专家的知识,例如:神经科学、计算机科学、工程学、哲学和心理学。但在后勤和基础方面都存在挑战,从某种意义上说,让来自不同领域的专家非常费力,而且还存在知识冲突的问题;真的很难让工程师关心他/她正在建造的东西的心理影响,更不用说自我冲突的问题了。

概括

总而言之,虽然脑启发方法是构建人工智能系统的明显途径(我们已经讨论了原因),但它充满了挑战,但我们可以展望未来,希望人们正在努力解决这些问题。


也发布在这里。


参考