paint-brush
2000+ 名研究人员预测人工智能的未来经过@adrien-book
736 讀數
736 讀數

2000+ 名研究人员预测人工智能的未来

经过 Adrien Book4m2024/04/17
Read on Terminal Reader

太長; 讀書

AI Impacts 最近与各大学合作开展了一项调查,重点介绍了专家对人工智能未来里程碑和潜在风险的预测。专家们预计到 2028 年人工智能将取得重大进展,但对人工智能的可解释性、社会影响和生存风险表示担忧。他们呼吁加强人工智能安全研究、制定全球法规和负责任的人工智能发展,以应对人工智能带来的机遇和挑战,创造更美好的未来。
featured image - 2000+ 名研究人员预测人工智能的未来
Adrien Book HackerNoon profile picture
0-item
1-item


人工智能的发展步伐已达到自然的高潮。GPT -4GeminiClaude等工具及其制造者都声称很快就能改变社会的方方面面,从医疗保健和教育到金融和娱乐。这种快速的发展引发了有关人工智能发展轨迹的越来越关键的问题:这项技术的好处是肯定的,但同时也(主要是! )它给我们所有人带来的潜在风险。


在这种情况下,倾听、理解和听取专家的观点变得至关重要。最近一项名为“ 数千名人工智能作者对人工智能未来的看法的调查代表了最广泛的努力,旨在了解这些专家对人工智能潜力的看法。这项研究由Katja Grace和她在AI Impacts的团队与波恩大学和牛津大学的研究人员合作进行,调查了 2,778 名研究人员,寻求他们对人工智能进展及其社会影响的预测。所有联系到的人都曾在顶级人工智能会议上撰写过同行评议的论文。


人工智能未来研究的关键要点

简而言之,这项调查凸显了人工智能研究人员对该技术的未来及其社会影响的期望和担忧的复杂性和广泛性。


  • 专家预测,人工智能最早将在 2028 年实现重大里程碑:“比如从头开始编写整个支付处理网站的代码,以及创作出与泰勒·斯威夫特等热门歌手的真实歌曲难以区分的新歌”。


  • 绝大多数受访者还认为,最好的人工智能系统很可能在未来二十年内实现非常显著的能力。这包括找到“意想不到的方法来实现目标”(82.3%)、“在大多数话题上像人类专家一样说话”(81.4%),以及经常做出“令人类惊讶的行为”(69.1%)​​。


  • 此外,共识认为,到 2047 年,人工智能在所有任务上“超越”人类的可能性为 50%,这一预测比一年前的预测提前了 13 年


  • 目前预测,到 2037 年,人类所有职业实现“完全自动化”的可能性将达到 10%,到 2116 年将达到 50%( 2022 年调查中为 2164 年)。


AI什么时候才能“做”以下任务?


  • 调查显示,人们对人工智能决策的可解释性持怀疑态度,只有 20% 的受访者认为,到 2028 年,用户将能够“理解人工智能系统选择背后的真正原因”。众所周知,人工智能是一个黑匣子,这种担忧反映了人工智能透明度方面存在的真实、持续的挑战。这在关键应用(金融、医疗保健……)中尤其重要,因为理解人工智能决策对于信任和问责至关重要。


  • 该研究还强调了人们对人工智能潜在负面影响的“重大”担忧。虚假信息的传播、舆论操纵和人工智能的专制使用,毫不奇怪地引起了人们的极大担忧。如今,呼吁采取主动措施减轻这些危险的声音越来越少,这是一个问题


潜在情景值得关注的程度,按关注程度从高到低排列


  • 关于高级机器智能的长期影响,人们的看法各不相同,相当一部分受访者认为极好和极坏的结果(包括人类灭绝)都有可能出现。科学家认为“我们他妈的不知道接下来会发生什么”。但是…… 38% 到 51% 的受访者认为高级人工智能至少有 10% 的可能性会导致人类灭绝等糟糕结果,这似乎是我们应该关注的事情。


  • 最后,对于人工智能发展速度更快还是更慢对人类的未来更有利,人们存在分歧。然而,大多数受访者主张优先考虑人工智能安全研究,这反映出人们越来越认识到解决人工智能生存风险和确保其安全开发和部署的重要性。


我们如何处理这些信息?

前进的道路非常明确:世界各国政府需要增加对人工智能安全研究的资金,并开发强有力的机制,确保人工智能系统符合当前和未来的人类价值观和利益。


英国政府最近宣布为一系列人工智能相关项目提供 5000 多万英镑的资金,其中包括 3000 万英镑用于创建新的负责任的人工智能生态系统。其目的是构建工具和程序,确保负责任和值得信赖地应用人工智能功能。


与此同时,拜登-哈里斯政府于 2024 年初宣布成立美国人工智能安全研究所联盟(AISIC),汇集 200 多个人工智能利益相关者,包括行业领袖、学术界和民间社会。该联盟旨在通过制定红队、能力评估、风险管理和其他关键安全措施的指导方针,支持安全可靠的人工智能的开发和部署。


这些只是一个开始,但都是全国性的。


如今,各国政府不能只顾自己的后院。我们还需要实施国际法规,以指导人工智能技术的道德开发和部署,确保透明度和问责制。这包括促进人工智能研究人员、伦理学家和政策制定者之间的跨学科和国际合作。当我看到以下措施得到实施,以加强和改善现有的人权框架时,我会感到更安全:


  • 全球人工智能安全框架
  • 国际人工智能安全峰会
  • 全球人工智能伦理与安全研究基金。


现在下结论还为时过早

现在就陷入末日论的陷阱可能还为时过早。虽然这项调查提供了宝贵的见解,但它也有局限性,包括参与者自我选择的潜在偏见以及准确预测技术进步的(显而易见的! )挑战。进一步的研究应旨在扩大观点的多样性,并探索人工智能发展对特定行业的影响。


最终,无论预测是否准确,我们需要的不仅仅是言语。人工智能既是前所未有的机遇,也是重大挑战。通过研究人员、政策制定者和公众之间的公开对话,我们必须制定规则来保护我们免受人工智能的危害,并引导我们走向更美好的未来


世界很大,我们却很小。祝你好运。