paint-brush
关于人工智能的人工讨论经过@brbs
833 讀數
833 讀數

关于人工智能的人工讨论

经过 Tyler Berbert11m2023/03/29
Read on Terminal Reader

太長; 讀書

从长远来看,人工智能是一项真正具有革命性的技术。一旦你了解了它的事实,结论是不可避免的:它目前的能力被夸大了以销售产品。我们对如何实现了解得越多,当人工智能真正接近人类智能水平时,我们就会处于更好的位置。
featured image - 关于人工智能的人工讨论
Tyler Berbert HackerNoon profile picture

要真正谈论人工智能,我们也必须使用术语“机器学习”。人工智能是人们使用机器学习的一件大事。机器学习是人工智能的基础,是为其提供动力的数学和算法。


它们并不相同,但它们的维恩图有足够的重叠,因此对于我们的目的来说并不重要。


基本上,有描述曲线的数学。还记得抛物线吗?马蹄形的东西,末端继续延伸?


您可以使用曲线方程对现实生活中的大量事物进行建模,特别是,以荒谬复杂的方式分层的荒谬数量。现在计算能力很便宜。再加上互联网创造大量训练数据的能力,两者结合得很好。


进行此建模的人员通常试图同时在多条曲线上找到某个最优值——端点、抛物线的顶部或底部、马蹄铁的有限端。


对于最终输出,某些曲线通常比其他曲线更重要;你想真正准确地优化一些,而可能更模糊地优化其他的。


你可以让计算机学习正确的“权重”以放在不同的权重上。您可以让它缩小建模方程本身的范围。


最后,计算机以优化某些最终结果的方式找到一最佳值。这就是机器学习的“魔力”(重引号)。


你可以接受一个输入——一个口头提示,一组关于你的偏好的数据——然后输出一个在某些维度上非常逼真的输出——一幅画、一个名人的声音、一首歌曲推荐。


计算能力可能很便宜,但花钱请人做所有这些数学运算,甚至将这些数学运算输入计算机,就会变得昂贵。


聪明人想出了如何让机器为我们做很多这样的跑腿工作:有一些方法可以让机器“沿着”曲线方程“行进”并跟随它们“下坡”。


这几十年来一直在定制您的 Google 搜索结果。从那时起,就出现了显卡军备竞赛。有 AlphaGo,它在 2015 年击败了世界上最好的围棋选手。


曾经有过波士顿动力机器狗。已经有像 Shazam 和 Siri 这样的应用程序。已经有像 DALL-E 和Midjourney这样的绘图程序。


这一切都很酷,但钱并没有从搜索结果中转移太远。它已经将拳头投入到一个相邻的事情上:在社交媒体上向人们展示他们会喜欢的东西。您会花时间查看的内容以及您可能会点击的广告。


与此同时,更广泛的 AI 概念在一段时间内一直是科幻小说的主要内容,并且它与该领域在过去五到十年中经历的这种“突然出现”相互作用。我们看到这种指数级增长并想到“终结者”。


销售 AI 的人很乐意让我们这样想,跳过一些关键事实,所以我们会相信他们的说法“是的!将我们与终结者电影中的天网进行比较!我公司打造的 [Crazy Invention #4852] 将在 5-10 年内达到顶峰!”


我理解为什么人们会看到它的能力得到公认的快速增长,并认为我们真的正处于赋予它意识的悬崖边上。


即使这个悬崖的规模更大,而不是 2 或 20 年,而是 200 年,与我们人类存在的时间长度相比,这也是一件非常重要的事情。


在那个时间尺度上,我们真的可以突破人工智能程序只是“自动完成概念而不是单词”的地步,就像它们在 ChatGPT 或Searle 的中文房间论证中一样。


我们实际上可以将正确的程序放在正确的受生物学启发的硬件上,并真正模仿人类的思维,从而提出菲利普·迪克 (Philip K. Dick) 和其他人提出的人性和感知力问题。


如果当 AI 真正与我们的情感和感知智能相媲美,拥有像我们一样的完整意识,而不仅仅是特定领域的技能时,我们将面临清算。


不会是今天、明天、下周,甚至明年。


我们大脑中的大规模并行(在这种情况下,意味着同时工作)神经连接——可以这么说,这是我们城堡的护城河。这就是使“通用人工智能”提前数年甚至数十年的原因。


深度学习是机器学习的一个分支,它最近取得了很多进步,是模拟我们在现实世界中看到的输入输出关系的统计和微积分的一个很酷的名字。它并不——至少现在还不——意味着计算机正在“深度学习”任何东西。


尽管它令人印象深刻,但它是在计算机中发生的数学,其方式与您大脑中“数学发生”的方式根本不同。


大脑消耗的电量少得惊人。数据中心的使用量大得惊人。后者是蛮力机器。他们处理的线程比我们少,灵活性也不如我们;每一个都那么


它计算和缩小可能性的速度如此之快,以至于即使是最好的国际象棋和围棋选手也无法跟上。


它的致命弱点是它需要相当明确的问题、相当干净的输入和输出。棋盘游戏。不会掉落的机器人。它不能同时处理一组荒谬的多样化和快速变化的“优化”问题,总是在它们之间切换。


无论 AI 在个别领域的优势和缺陷如何,它都无法像我们一样绑定许多领域,根据需要改变重点,跨领域适应和转移行为。它不能在人类蹒跚学步的水平上做到这一点。


人工智能研究的一个重要目标是“一次性”或“少量”学习,这意味着不需要大量数据集和训练时间来学习如何做某事。这里取得了成功;它仍然远远落后于我们的大脑。


自然而然地,我们擅长在许多领域进行小样本学习,而且从小就擅长。我们从几乎没有训练数据的情况下快速学习规则和策略。您可以向孩子展示如何使用 iPad、骑自行车、系鞋带或解释故事的寓意(而不仅仅是情节摘要)。


你几乎无法训练计算机做好其中一件事情。如果它可以进行认知推理、运动和人类互动而不令人恐惧,我们早就将它用于所有这些事情了。


企业对繁琐的人工劳动过敏,总是力求更便宜的机器版本。他们本来可以做到的。他们没有。


大学的计算神经科学实验室对模拟我们的大脑对世界所做的内部思想和推理感兴趣。将两个人的照片混合在一起,看看他们的孩子会是什么样子,并不是模特们的目的。


可能几十年来,只有我们人类才能以模糊的、适应性的、拼凑的策略——即兴的方式——来驾驭世界。


这种从情感和经验的基础出发,了解世界并在世界中导航的一般能力,在技术行业构建人工智能时并没有发现有用的东西。


到目前为止,机器学习中真正的大脑模仿发生的方式很少。没有必要复制大脑,也就是说有利可图。


公司(以及他们资助的大学)反而针对更可衡量的事情进行了优化:社交媒体订阅的点击次数或无人机袭击的准确性。


如果它试图模仿我们,那么它就是为了获得大脑可以做的某些事情的结果而进行的利益驱动的尝试。一些令人印象深刻且有趣的模式识别形式发生在计算机视觉中。


所有这一切都是为了让人们明白,人工智能既不是“让计算机栩栩如生的魔法”,也不是“某些人可以用计算机实现的魔法”。这是蛮力数学。知识与计算能力相结合。杠杆作用。大多数人工智能模型都在处理数字来做一件事:赚钱。


拥有这只金鹅,这种强大工具的人在经济上受到激励,声称 AI 指日可待,不会做一些宇宙或世界末日的事情,以隐藏它为他们的业务所做的更真实、平凡、不那么引人注目的事情。


他们声称它将在未来 1 年、5 年、10 年或 15 年内有能力做某些大事,这符合他们的既得利益。这些是投资者喜欢的时间表。完全自动驾驶汽车没有成功只是我们在这方面看到的第一批失败案例之一。


崇高的科幻前提和承诺造就了好电影。机械姬,她,银翼杀手。这并不意味着它们是真的。


当我们接受 AI 开发人员对其产品的框架(1)不可避免和(2)在政治和经济上具有变革性时,很容易忽略 AI 采取的形式这一明显事实(即,作为聊天机器人!作为“搜索引擎”! ) 及其用途(即,它将增加或取代的工作!它将使任务变得更容易或更困难!)取决于它出现的政治和经济条件。

……

我对我们处于悬崖边缘的可能性持开放态度——正如 Paul Christiano 似乎相信的那样,一个被大型语言模型“彻底改变”的世界只需要几个月的时间。但这份时事通讯的一个基本经验法则是,事情的变化缓慢而愚蠢,而不是迅速而剧烈,适当的人工智能批评需要考虑到这种可能性。现在,我满怀怨恨地发现自己再次陷入一场关于技术的讨论中,讨论的术语和框架或多或少完全由私营公司设定,这些公司将从技术的开发和采用中获利.


— Max Read,关于 AI 批评,Facebook 的批评可以教给我们什么


让我们盘点一下。从历史上看,我们如何接受技术官僚精英强加给技术问题讨论的“讨论条款和框架”,无论是加密货币还是银行业?


在罗斯福的后大萧条改革和 80 年代之间发生了多少经济崩溃的银行危机?里根将他们撤回之后发生了多少事?


Max Read 引用了 Joe Bernstein 撰写的关于 Facebook 如何在幕后完成这项工作的优秀文章;它向整个阶层的人推销了一种摇摇欲坠且越来越站不住脚的广告效果模型。


金字塔计划基于实际产品并不意味着它不是金字塔计划。


这里的一个重点是:在误导公众关于其产品的问题上,技术并不比金融“更好”。可以说情况更糟。你看到了廉价血液检测、联合办公空间和区块链发生了什么。优良的工业被愚蠢玷污了。


看看他们如何屠杀我的孩子。


他们在内部搞砸事情,但以影响我们所有人的方式,因为我们的朋友和邻居相信他们的废话并让他们设定讨论条件。然后我们支付他们的金色降落伞。


数以百万计的人在经济事件中失去了生计,而这些事件本可以通过一些适当的法规来避免。故事与时间一样古老。


我们有必要尝试人工智能的新事物。让我们未来的自己根据可靠的信息自由做出正确的决定是值得的。了解它的真相是值得的。从表面上看别人的奇思妙想确保你将来会付出更高的代价。


人们越来越善于将 ML 和深度学习用于各种事情——让计算机识别面孔、复制声音,并向人们展示内容,让他们不断滚动。


这些用途不会让我们的生活变得更好或更有帮助,而不是让一些人变得非常富有,除非我们做到这一点。


与此同时,当然,他们可以非常有趣。


AI 可用于善事、恶事、怪诞或任何实际用途,具体取决于人类条件。目前,这只是意味着这一切都取决于利润动机的导向。


大多数 AI 专业知识都被试图从我们身上榨取美元的公司席卷而来。在公共的、透明的、以人为本的努力中,从根本上改善生活(以前属于政府领域),甚至在大脑模拟中,都没有那么多钱。


它用于面包、马戏团和军事用途。这些类型的条件是让人工智能和任何其他技术朝着它的方向发展的原因。


人工智能现在就在那里。这个事实是桥下的水。像谈论魔法一样谈论它只会让那些从废话中获益最多的人受益。


用沉重的大话来装扮 AI,在这种情况下,世界末日的谈话,利用人们对它不知情的兴趣,是我们以前见过的一种模式。


“Theranos/WeWork/NFT 将改变一切。”更正:他们本可以改变很多。相反,他们超卖了自己。他们承诺过多,但兑现不足。


这种围绕人工智能的歇斯底里,夸大其能力和风险,让一些人变得更富有,很难摆脱那些天生对它感兴趣的人。这是一个有趣的东西,用途广泛。


无论如何,人们都会购买它,就像他们对加密货币和 NFT 所做的那样,甚至可能更多。更有理由了解它的真相。


如果你对这篇文章没有任何其他看法,那就看看这个:目前,我们如何在彼此身上使用 AI 是一个比任何关于 AI 越来越有意识的问题都更为紧迫的问题。想一想:如果它真的有意识了,想要伤害我们,为什么?它为什么要这样做?


我们将它带入世界的方式会对其对人类物种的立场产生某种影响,这似乎不是显而易见的吗?


将这件事以及围绕它的叙述完全委托给 CEO 和与技术相关的资本所有者,这群人在这方面有着糟糕的记录,并被证明比普通人群有更高的精神病发病率,这是否有意义?


我们是否希望他们负责它的使用、研究和开发,直到它变得有意识的那一刻,无论是在 2030 年还是 2230 年?


正如 Read 所指出的,AI 恐慌者发现人们不去想这个很方便。


他们发现隐藏这个事实要方便得多,这样他们就可以谈论它的进步是不可避免的,不值得质疑,奇点就在眼前。


除了人类不可避免的事情,这里没有什么不可避免的。大猩猩没有在这方面工作。


如果通用人工智能到来,当它到来时,这将是一个天体生物学的问题,一个外星生命形式的问题。在那一刻之前,它是哲学、历史和人文学科之一。我们会让它像我们一样,按照我们的形象,甚至比我们更好吗?


我们会让事情变得更糟,反映出我们最反社会的倾向吗?疯狂的是:人类决定。我们是建设者。我们正在控制它的外星人或人类的程度。


当然,“我们”除外。有些人比其他人更多。我们可以接受吗?我们可以接受那些人吗?我们对他们将这项技术导向何处感到满意吗?


看到高资本拥有阶级倾向于“使不可避免”的事情——它对其他行业的预测,它的短视和忽视事实的行为以及使如此多的数十亿美元企业崩溃的从众心理做法——一些人怀疑如何他们谈论人工智能是有道理的。


也发布在这里