paint-brush
人工智能与“知识崩溃”问题经过@mikeyoung44
2,138 讀數
2,138 讀數

人工智能与“知识崩溃”问题

经过 Mike Young6m2024/04/09
Read on Terminal Reader

太長; 讀書

人工智能与“知识崩溃”问题 - 本文深入探讨了“知识崩溃”的概念,指出我们对人工智能的日益依赖可能会缩小我们获得非传统思想的机会,从而扼杀创新。Andrew J. Peterson 的研究探讨了这一现象,强调了风险并提出了在人工智能驱动的文化中保持知识多元化的解决方案
featured image - 人工智能与“知识崩溃”问题
Mike Young HackerNoon profile picture
0-item

人工智能经常被称赞(对我来说, !)作为增强人类智慧和创造力的强大工具。但是,如果依赖人工智能实际上会降低我们随着时间的推移形成革命性想法和创新的能力呢?这是本周在 Reddit 和 Hacker News 上疯传的一篇新研究论文提出的令人震惊的论点。


这篇论文的核心观点是,我们越来越多地使用语言模型和知识库等人工智能系统,这可能导致文明层面的威胁,作者称之为“知识崩溃”。随着我们越来越依赖在主流传统信息源上训练的人工智能,我们可能会失去与知识边缘的疯狂、非正统思想的联系——这些思想往往推动了变革性的发现和发明。


您可以在下面找到我对这篇论文的完整分析、一些反驳问题和技术分析。但首先,让我们深入探讨“知识崩溃”的真正含义以及它为何如此重要……


人工智能与知识崩溃问题

,作者安德鲁·彼得森普瓦捷大学的研究人员提出了“知识崩溃”的概念,即“随着时间的推移,人类可利用的信息范围逐渐缩小,同时不同信息范围的可感知可用性和实用性也随之缩小”。


简单来说,知识崩塌是指人工智能让传统知识和常识变得唾手可得,而那些非常规、深奥、“长尾”知识则被忽视和遗忘。这并不是让我们个人变得更愚蠢,而是侵蚀了人类思想的健康多样性。

论文中的图 3 说明了知识崩溃的核心概念。

彼得森认为,这对创新来说是一个生存威胁,因为与各种各样的想法(尤其是非主流想法)互动是我们建立新概念联系和思维飞跃的方式。科学、技术、艺术和文化领域最具影响力的突破往往来自于综合截然不同的概念或将一个领域的框架应用到另一个领域。但如果人工智能让我们从越来越狭窄的“正常”知识中汲取知识,那么这些创造性的火花就会越来越不可能出现。我们的集体智慧被困在循规蹈矩的回音室中,停滞不前。从长远来看,人类想象力的范围会缩小,以适应由我们的人工智能工具优化的有限信息。


为了说明这一点,想象一下,如果所有书籍推荐都来自仅接受最热门主流书籍训练的人工智能。边缘流派和小众主题将随着时间的推移而消失,文学界将陷入衍生作品和重复作品的循环中。不再有来自融合截然不同的影响的革命性想法。


或者想象这样一个场景:科学家和发明家从基于现有研究资料集进行训练的人工智能那里获得所有知识。最传统、最普遍的探究路线得到强化(在训练数据中得到高度体现),而导致真正范式转变的非正统方法逐渐消亡。整个发现领域都未被探索,因为我们对人工智能视而不见,忽视了它们。

彼得森认为,将越来越多的信息供应和知识管理外包给重视主流数据的人工智能系统,会带来潜在的风险。人类继续实现巨大创造性飞跃所需的思想多样性正逐渐消失,被传统和数量流行的引力所吞噬。


彼得森的知识崩溃模型

为了进一步研究知识崩溃的动态,彼得森引入了一个数学模型,说明人工智能驱动的信息源缩小如何在几代人之间加剧。


该模型想象了一个“学习者”社区,他们可以选择通过以下方式获取知识:1)使用传统方法从完整的真实信息分布中采样,或2)从以主流信息为中心的较窄分布中采样的基于人工智能的折扣过程。

这实际上是 Primer 关于投票系统的视频的截图,但我想象他们的“社区”中的模拟“学习者”在阅读论文时看起来像这样,现在你也会这样。

随后,彼得森模拟了在不同情景和假设下,整体“公共知识分布”在多代人中如何演变。


一些主要发现:

  • 当人工智能为学习者提供主流信息 20% 的成本降低时,公共知识分布最终会比无人工智能基线倾斜 2.3 倍。边缘知识迅速被淘汰。

  • 人工智能系统之间的递归相互依赖(例如,一个人工智能从另一个人工智能的输出中学习等等)极大地加速了知识在代际中的崩溃。错误和对传统的偏见在每一步中都会加剧。

  • 抵消崩溃需要非常强大的激励来激励学习者积极寻找边缘知识。他们不仅必须认识到稀缺信息的价值,而且还要不遗余力地以个人成本获取它。


彼得森还将他的模型与社会学习理论中的“信息级联”等概念以及人工智能公司优先考虑最具商业应用数据的经济激励联系起来。这些都表明,在人工智能驱动的知识生态系统中,传统主义面临巨大压力。


批判性观点和开放性问题

彼得森关于知识崩溃的论点在哲学上极具启发性,在技术上也十分连贯。该论文的正式模型为分析问题和设想解决方案提供了一个有用的框架。


然而,我希望看到更多直接的现实世界证据来证明这些动态的作用,而不仅仅是数学模拟。跟踪知识多样性随时间变化的经验指标可能有助于测试和量化核心主张。本文也没有解决潜在的反驳问题。


我心中有几个关键的未解问题:

  • 即便人工智能让事情有些偏向传统,但从创新角度来看,扩大人工智能获取知识的渠道难道还不能产生积极影响吗?降低学习门槛不是更重要吗?

  • 哪些集体政策、激励措施或选择架构可以帮助抵消知识崩溃,同时保持人工智能知识工具的效率提升?我们如何将机器智能与综合信息融合?

  • 随着主流知识商品化,人工智能公司的经济激励是否会随着时间的推移而发生变化,更加重视稀有数据和边缘案例?市场动态是否真的可以鼓励多样性?


在我看来,保留人工智能训练数据和个人致力于寻求边缘知识等建议的解决方案只是部分有效。解决这个问题似乎需要社会和机构层面的协调,而不仅仅是个人选择。我们需要共享机制来积极重视和保护非常规事物。


我还想知道,去中心化、开放的知识库在制衡人工智能驱动的缩小知识面方面可能发挥怎样的作用。像 Wikidata 这样的举措,论文集, 或者IPFS通过使边缘信息更容易获取来提供防止知识崩溃的壁垒?这方面还有很大的工作空间。


我们的创意未来面临风险

最终,彼得森的论文有力地警告了我们急于让人工智能成为人类知识的媒介时潜藏的危险,即使对于像我这样非常支持人工智能的人来说也是如此。在一个被机器智能重塑的世界里,保护混乱、无序的思想多样性是人类持续创造力和进步的必要条件。


我们或许应该明智地主动设计我们的人工智能知识工具,以培育非传统知识并有效地传递传统知识。我们需要强有力的保障和激励措施来让我们与边缘的怪异事物保持联系。如果不这样做,我们的集体思维可能会陷入我们自己设计的顺从泡沫中。

我们自己设计的顺从泡沫!


那么你是怎么想的——你是否担心人工智能驱动的文化中知识的崩溃?你会提出什么策略来防止这种情况发生?请在评论中告诉我你的想法!


如果这篇介绍激起了你的兴趣,请考虑成为付费订阅者,以获得完整的分析并支持我澄清关键人工智能问题的工作。如果你和我一样坚信,解决这些想法对于我们创造性的未来至关重要,请分享这篇文章并邀请其他人参与讨论。


人类知识的多样性并非抽象的可有可无的东西——它是人类最有意义的突破和创造性飞跃的必要催化剂。面对超高效的人工智能知识管理,保留这些充满活力的想法是我们作为创新物种的未来面临的决定性挑战!


AIModels.fyi 是一份由读者支持的出版物。要接收新帖子并支持我的工作订阅记得关注我推特