paint-brush
人工智能不是问题,大科技才是问题经过@theantieconomist
977 讀數
977 讀數

人工智能不是问题,大科技才是问题

经过 The Anti-Economist8m2023/11/17
Read on Terminal Reader

太長; 讀書

审视大型科技巨头的历史及其糟糕的数据安全性,人工智能扩散的实际风险是什么?看起来它与大公司对数据的使用比人工智能本身有更多的关系。
featured image - 人工智能不是问题,大科技才是问题
The Anti-Economist HackerNoon profile picture


人工智能是否像我们所相信的那样可怕,或者只是那些有着不道德数据使用记录的大型科技巨头,将继续以他们使用我们其他数据的方式使用人工智能:尽可能多地充实他们的口袋。


即使那些对人工智能只有最基本了解的人也明白,它的优势在于其理解数据的能力,如果你希望语言模型或人工智能变得更智能或针对特定目的进行训练,关键要素就是数据。这正是人工智能和大科技开始交叉的地方,因为科技巨头预计拥有最大的云数据储备,可用于训练和开发人工智能模型。


自 2022 年以来,在 Chat GPT 第一个版本发布后不久,谷歌微软亚马逊都投资了数十亿美元,并与当今最先进的人工智能开发公司建立了牢固的关系。


即使在此类交易中,员工也经常发现自己陷入与大型科技公司使用人工智能相关的道德困境。达里奥·阿莫代 (Dario Amodei) 离开 Open AI,似乎是出于对微软参与的安全和道德担忧。不久之后,他创立了 Anthropic,以转向另一个邪恶的继姐妹,赚了大约 100 美元。 12.5亿美元来自亚马逊的投资和20亿美元来自谷歌。


考虑到大型科技公司动荡的过去(和现在)、隐私道德以及他们对人工智能的大力支持,目前我们可能担心问题不在于人工智能的发展,而在于我们对隐私的担忧。都太熟悉了。


在审视科技巨头、隐私问题、人工智能语言模型的功能和政府法规之间的关系时,至关重要的是要考虑人工智能被恶意实体利用时与高潜力相关的风险。



人工智能革命

正如大多数人所知,语言学习模型(LLM)或人工智能是一堆算法的巨大组合,这些算法能够根据所训练的信息自主行动以创建结果。


人工智能并不像大多数人想象的那样是一种新工具。我们的日常生活中会用到许多人工智能工具。从我们汽车中的地图,到社交媒体广告,再到我们的 Netflix 推荐,所有这些都使用人工智能工具来了解我们的日常生活和习惯,并对我们可能会参与的内容提出建议和猜测。


如果使用得当,人工智能有能力改变我们在日常生活中与技术互动的方式。它不仅可以使我们的生活更加方便,而且还可以改变那些无法像大多数人一样轻松地与现实互动的人的可访问性。例如,那些有视力障碍的人可以使用人工智能讲述他们周围的世界,以便更好地导航。


人工智能已经被用来简化许多不同的流程,包括电子商务、医疗保健技术、金融、农业和教育。让人们的工作变得更轻松。能够执行人类已经执行的自动化任务意味着我们不必花费太多时间在平凡的任务上(这是许多人工作的重要组成部分),而可以专注于人类聪明才智至关重要的领域。


例如,考虑到百老汇的施工和市中心的交通堵塞,人工智能让我更容易决定今天更好的上班路线,这意味着我可以多睡 10 分钟,在出发前给自己泡杯咖啡,这将使我的一天更加美好,让我的工作更有效率。


需要记住的重要一点是,与其他仅依靠芯片来控制其功能的工具不同,人工智能接受了大量信息的训练,然后当我们向其提供某些提示时,它会学习并能够回忆起这些信息。


这在很大程度上是人工智能和大型科技发展之间关系的开始,因为谷歌、亚马逊和微软拥有一些最大的人类数据存储(可能包括你的数据),他们可以并且正在利用这些数据来训练他们的人工智能模型。


有点令人担忧的是,那些已经证明自己对我们的数据最不值得信任的公司,却是那些带头开发更智能人工智能的公司。


不用说,这似乎是一场灾难。而我们,消费者,损失最大。


人造月亮的黑暗面

科技界的许多人对生成式人工智能工具的未来持谨慎乐观态度,并且我们继续看到利用具有巨大潜力的人工智能技术进行鼓舞人心的创新。


不要误会我的意思,人工智能在我们的世界中可以是一件非常好的事情,目前正被用来创造关键技术来帮助许多人的日常生活,例如,但大多数人对人工智能的担忧和保留必须得到充分的考虑在将如此强大的技术引入我们的日常生活时解决了这个问题。


尽管以利润为中心,大型科技巨头有责任尊重消费者的数据隐私(他们有责任不断被忽视),特别是对于使用数据训练的人工智能,非常了解用于训练语言模型的数据类型变得极其重要。有些人实际上并不希望他们的 Facebook 照片、Instagram 故事、位置历史记录、财务数据等用于训练人工智能模型。更重要的是,医疗、生物识别、财务和位置数据等更敏感的数据。


AI歇斯底里是否用错了地方?

我们肯定见过摄取人们对人工智能的能力感到歇斯底里,担心它会抢走工作、获得知觉并最终超越人类,但实际上,我们应该害怕的是谷歌利用我们的数据来反对我们,以实现利润最大化。这是他们一直在做的事情,但是当我们开始使用人工智能来理解和记录你生活的方方面面,并且可以被错误的人访问时,利用我们的数据来对付我们的可能性就变得更加严重。


使用敏感/个人数据训练人工智能模型的风险

已经发生过一些事件,人们报告说,使用 Amazon Alexa 收集的数据在没有搜查令的情况下被要求提供给执法部门,并在刑事调查中用于对付他们。


还发生了多起个人数据被用于推进政治议程并可能传播错误信息的事件。大量数据泄露事件导致大型科技公司收集的数据落入坏人之手,使犯罪分子能够获取数百万人的个人信息。


使用个人数据训练人工智能模型可能会因数据输入和交换过程中未经授权的访问而导致潜在的隐私侵犯问题。如果不经过严格审查和谨慎处理,在用于训练人工智能模型的数据的漫长过程中,数据可能会来回传递多次,导致人们不受监管地访问个人数据。在处理如此大量的复杂信息时,由于安全措施的失误导致敏感信息未经授权的发布而导致数据泄露,这并非不可能。


在不同的数据集上训练人工智能的重要性在于,人工智能模型根据其所接受的训练,很可能会产生偏见和歧视,这是非常真实且之前经历过的。以面部识别为例,人工智能模型可用于检测特定商店中谁在偷窃,并在三年内提供安全保障。如果出现在上述安全录像中的人主要来自特定种族,人工智能模型可能会开始预测该特定人群之外的任何人更有可能偷窃。如果训练数据不具有多样性和代表性,人工智能模型可能很难将其学习准确地推广到不同的人群。


如果人工智能模型仅针对一组人口统计数据进行训练,那么基于数据的偏差,语言模型本身就存在潜在偏差的巨大风险。这里的问题比较简单;如果某些群体拥有更多可用的个人数据,那么我们如何防止人工智能内部出现偏见?它可能会导致数据集中代表性不足的社区被排除在外。


还有一个因素是缺乏同意和透明度,即是否向用户披露他们的数据正在被收集用于训练人工智能模型。在我们不断被信息轰炸、常常遭遇选择瘫痪的今天, 91%的人在注册任何特定应用程序时不会仔细阅读条款和条件,因此提出了一个问题:消费者是否真正确切地了解他们所注册的有关其数据权利的内容。这可能会在削弱用户信任方面发挥巨大作用, 学习人们已经发现人们的可信度低得惊人,42% 的人对大型科技公司的信任度很低或现在不信任。


这是一个非常现实的威胁,即使是这些大型科技巨头也容易受到网络攻击,导致大规模数据泄露,因为最近的历史已经充分证明,随着为了训练人工智能而使用和传输大量数据的增加,这种风险只会加剧。像 Facebook 这样的科技巨头在此类网络攻击和用户数据泄露方面有着紧张的历史,这让消费者怀疑,当科技巨头甚至无法处理已经存在的情况时,引入另一个漏洞点是否明智?他们的盘子。


随着人工智能技术的普及,我们在未来几年可能会看到的另一个潜在问题是匿名数据的重新识别,这可能再次泄露敏感信息,从而使个人面临风险。


结束语

很多人对人工智能及其给劳动力带来的影响持保留态度(尽管它可能不会改变任何事情),这是完全有道理的,但我认为我们人类的本能对任何新事物都持怀疑态度,我们忘记了问题可能一直都在这里。


这并不完全是普通工人的错,这些价值数十亿美元的公司可能已经付出了相当大的努力来确保我们不会像我们应该的那样讨厌他们,但看到人们妖魔化仍然很有趣击打的工具,而不是使用它的手。无论您是否了解人工智能,您仍然可能知道这些科技巨头在数据保护方面的缺陷,因此,当我们在未来 5 年内看到有关人工智能被不道德地用于数据保护的争议时,也就不足为奇了。跟踪您的每一步并从中赚钱。



主图由Adi Goldstein在 Unsplash 上提供