2022 年 10 月,我发表了职业生涯中最尴尬的一篇文章,但两年后,我开始认为自己可能是对的。
2022 年,漫步在 BlackHat 巨大的供应商大厅中,每个摊位都对人工智能做出了大胆的宣传。“人工智能驱动的分析”、“将人工智能与实时检测相结合”或其他口号。每当你与销售团队交谈,询问他们的人工智能到底做了什么时,你要么会听到一连串的人工智能术语,要么会听到关于南极洲地下金库中秘密研究团队的说法。
随后,我自信地发表了一篇文章,称人工智能不过是营销的废话……“BlackHat 2022,A 比我更厉害”。几个月后,ChatGPT 发布了。突然间,人工智能变成了现实,我那篇精彩的文章突然变成了笑话,而且明显是错的。
但是,在今年参观了 BlackHat 2024 供应商大厅之后,也许我的想法并没有错。
不可否认的是,人工智能确实存在,而且它具有改变格局的巨大潜力。而且在很多方面,它已经做到了。两年前我还不相信这一点。但是,当你走过曼德勒湾举行的 BlackHat 2024 大会的宽敞大厅时,你仍然会看到同样的口号,而且我还没有找到一个可以与这些大胆的主张相符的、有意义的人工智能安全应用。
“我在 BlackHat 大会上注意到的一件事是,人们对人工智能感到厌倦”
阿希什·拉詹
人工智能网络安全播客
为了打消您的反对意见,我知道安全供应商确实在其产品中使用了人工智能。但到目前为止,我们还没有看到任何可以改变游戏规则的结果,而这很大程度上取决于他们如何实施人工智能。
在 ChatGPT 和后续 AI 模型发布后,许多供应商纷纷将这些新工具添加到他们的平台中。首选的实现是“基于 AI 的补救指南”和“警报的附加背景信息”。
但这背后的现实是:这种实施主要对供应商有帮助,而不是对用户有帮助。这仅仅意味着他们不需要在文档上花费太多时间。不仅如此,对于大多数商业 AI 模型来说,上下文信息总是至少过时 2 年。
事实是,很多此类实施只是为了兑现供应商对其“人工智能”产品的承诺的一种方式。
限制人工智能在安全领域能力的另一个问题是能否在特定的安全数据上训练人工智能模型。ChatGPT 等模型非常适合展示人工智能模型可以做什么,但对于特定用例来说却远不够可靠。正如 Dean De Beer 在
“我们还没有达到让人工智能不仅仅是一个产品端功能的阶段”
迦勒·西玛
人工智能网络安全播客
这意味着只有少数几家大公司有能力实现超越向通用 AI 训练模型发送通用数据的 AI 功能。如今,AI 仍然是大多数安全工具的附带功能,几乎是营销团队可以大肆宣传的噱头。
尽管我心存怀疑,但我承认人工智能确实有一些有趣的实现。
那么你该如何使用人工智能,特别是在你没有一级方程式车队那样的预算的情况下?
赋予人类权力,而不是试图取代他们
简单的事实是,现在我们不会也不应该相信人工智能会取代人类。如果我们不信任它,它就会永远落后,而且它的能力是有限的。人工智能是协助人类的强大工具。
专注于人工智能目前擅长的领域,即分类。
人工智能最初的强项是分类。我们可以为人工智能提供大量有关漏洞的背景信息,并得到一个模型来对漏洞进行分类和优先排序。
确保使用正确的模型
人工智能越受重视,我们就越需要一个同样专业的模型。自己训练这些模型可能超出了大多数人的能力范围。但有很多模型的表现会优于标准锤子。
智能是一个大胆且相当模糊的词。人工智能每天都在越来越深入我们的日常生活,而安全工具对人工智能有着巨大的潜力。我毫不怀疑,人工智能的有效创新实现绝对会在安全工具中实现。但我们还没有做到这一点。
多年来,安全供应商一直在拓展其 AI 能力,当 ChatGPT 向他们伸出援手时,他们试图让这些工具顺应他们的口号。现实情况是,有效的实施将与我们最初想象的不同。当口号与工具相匹配时,AI 才会有效,而不是相反。