Author: Priyanka Neelakrishnan, B.E., M.S., M.B.A. On a mission to make the world better than yesterday!
The is an opinion piece based on the author’s POV and does not necessarily reflect the views of HackerNoon.
This story contains AI-generated text. The author has used AI either for research, to generate outlines, or write the text itself.
人工智能的广泛应用需要有条不紊的护栏来规范、管理和确保其使用。
近年来,人工智能在世界范围内的应用显著增加,渗透到数字领域的方方面面。从自动化处理到高级算法,人工智能正逐渐成为我们日常生活和商业运营中不可或缺的一部分。人工智能技术在各个行业和领域的应用正以前所未有的规模和指数级增长。这也对社会产生了深远的影响,也对个人的核心权利带来了危险和风险。
人工智能 (AI) 是一个广泛的领域,涵盖各种机器学习、逻辑和基于知识的技术和方法,以创建可以执行通常由人类执行的任务或需要人类认知能力的系统。这包括自然语言处理、图像识别、解决问题和决策等任务。根据欧盟的《人工智能法案》和经合组织的《人工智能风险管理报告》,人工智能系统是一种基于机器的系统,它可以出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如可以影响物理或虚拟环境的预测、内容、建议或决策。
大致有两大分类:
GAN 是机器学习框架,由两个神经网络组成,一个生成器和一个鉴别器。生成器通过将输入的随机噪声整形为目标格式来生成数据。生成器本身无法评估其输出的质量。这就是鉴别器模型的作用所在。鉴别器旨在区分生成器生成的真实数据和虚假数据。两者同时进行训练,鉴别器训练以区分真实数据和生成器数据,而生成器训练以通过生成越来越逼真的数据来混淆鉴别器。随着训练的进行,每个模型在其任务上变得越来越好,从而使生成器能够创建看起来逼真的内容。GAN 的挑战在于训练它们。例如,GAN 可能会在训练中经历模型崩溃,其中生成器仅学习生成足以混淆鉴别器但不足以有用的少量样本。这就是扩散模型的作用所在。本质上,扩散模型经过训练可以从噪声场版本中恢复训练数据。训练后,扩散可能会从纯噪声输入中构思出全新的图像。它通过逐步去噪过程迭代构建图像。
其次,自回归模型植根于统计学。它通过对基于先前元素的序列中下一个元素的概率进行建模来生成数据序列。然后从该分布中随机选择下一个元素,使用“温度”参数可以使结果更加确定或更加随机,并重复该过程。自回归模型的流行神经网络组件包括 LSTM 和 transformers(允许神经网络在大量文本训练数据中学习模式)。我们不仅要完成输入给它的序列,还为自回归模型添加了一个对齐阶段。在这里,模型还会根据人类的反馈进行额外训练,使其优先选择某些输入输出对。例如,在 LLM 对齐中,已经成功地教会了模型如何回答问题和命令(强化学习)。
数据在生成式 AI 模型(尤其是大型语言模型 (LLM))的开发中起着核心作用。这些模型依赖大量数据进行训练和改进。例如,OpenAI 的 ChatGPT 是在包含从互联网收集的超过 45 TB 文本数据的大量数据集上进行训练的,其中包括数字化书籍和维基百科条目。然而,生成式 AI 对数据收集的大量需求可能会引发重大担忧,包括在未经个人同意的情况下无意中收集和使用个人数据。Google AI 研究人员也承认,这些数据集通常规模庞大且来自不同地方,即使来自公开数据,也可能包含敏感的个人信息。
数据收集通常有两种常见来源:
可公开访问的数据-网络抓取是收集数据的最常用方法。它涉及从可公开访问的网页中提取大量信息。然后,这些数据将用于培训目的,或可能被重新用于销售或免费提供给其他 AI 开发人员。通过网络抓取获得的数据通常包括用户在社交媒体平台(如 Facebook、Twitter、LinkedIn、Venmo 和其他网站)上分享的个人信息。虽然个人可能会出于各种原因(例如与潜在雇主联系或结交新朋友)在这些平台上发布个人信息,但他们通常不打算将自己的数据用于训练生成式 AI 模型。
用户数据- 用户与生成式 AI 应用程序(例如聊天机器人)共享的数据可能会在未经数据主体知情或同意的情况下被存储并用于训练。例如,与提供医疗建议、治疗、金融服务和其他服务的聊天机器人互动的用户可能会泄露敏感的个人信息。虽然此类聊天机器人可能会提供服务条款,其中提到用户数据可用于“开发和改进服务”,但批评者可能会认为,生成式 AI 模型应该征求用户的肯定同意,或明确披露用户数据的收集、使用和保留情况。
许多组织还将生成式 AI 模型嵌入到其产品或服务中,以增强其产品。在某些情况下,这种集成还可以作为数据来源(包括消费者的个人数据),用于训练和微调这些模型。
潜在威胁包括:
随着我们进入一个深受生成式人工智能技术影响的时代,人工智能治理对于希望在满足法律和道德要求的同时确保数据和人工智能安全使用的企业而言,已成为日益重要的优先事项。2023 年 10 月,美国拜登-哈里斯政府颁布行政命令,确保人工智能“安全、可靠和值得信赖”,紧随欧盟《人工智能法案》的颁布,该法案是世界上第一部全面的人工智能法律。其他国家,如中国、英国和加拿大,甚至美国的一些州,也已制定或颁布立法,强调人工智能的安全性、保障性和透明度的重要性。
产品经理和一般企业领导者在将 AI 纳入其业务实践时,需要采用这种安全的 AI 使用思维。有效的 AI 治理提供控制和监督,确保企业以负责任、合乎道德的方式开发和管理其 AI 服务,并以记录、高效和可证明的方式遵守内部政策和外部法规。这将使企业能够保持信任并增加责任感。
人工智能治理是指实施框架、规则、标准、法律要求、政策和最佳实践,以管理和监控人工智能的使用。它涉及指导、管理和监控人工智能活动以满足法律和道德要求。在道德方面,企业应专注于确保其人工智能模型具有高水平的透明度、安全性和保障性,以建立和维护客户信任。在法律方面,企业必须遵守法律要求并满足监管机构的要求,否则将面临巨额罚款和品牌声誉受损的风险。
麦肯锡研究估计,生成式人工智能未来每年可创造 2.6 万亿至 4.4 万亿美元的价值。然而,要发挥这一潜力,组织必须以透明、安全和值得信赖的方式实施人工智能。事实上,Gartner 建议,成功实施安全可靠的人工智能的组织,其人工智能采用率和业务目标实现率将提高 50%。
其中包括:
Gartner 开发的 AI 治理框架的一个例子是 AI TRiSM - AI 信任、风险和安全管理框架,该框架侧重于在使用 AI 时降低风险并与数据隐私法保持一致。它有四大支柱,1)可解释性和模型监控 - 确保透明度和可靠性。2)模型操作 - 涉及开发用于在整个生命周期内管理 AI 模型的流程和系统。3)AI 应用程序安全 - 确保模型安全并防止网络威胁。4)模型隐私 - 通过根据隐私法(数据用途/存储限制、数据最小化/保护原则)管理数据流来保护用于训练或测试 AI 模型的数据。总体而言,TRiSM 是一种增强 AI 模型可靠性、可信度、安全性和隐私性的方法。
增强对 AI 系统的可视性 - 发现和分类 AI 模型。这里的目标是通过识别和记录公共云、私有环境和第三方应用程序中使用的所有 AI 模型的详细信息,为企业提供其 AI 使用情况的完整而全面的概述。它涵盖模型的用途、训练数据、架构、输入、输出和交互,包括未记录或未经批准的 AI 模型。创建此类信息的集中目录可增强透明度、治理和 AI 的有效使用,从而支持更好的决策和风险管理。这对于揭示 AI 应用的全部范围并打破组织内的运营孤岛至关重要。
全面风险评估 - 评估风险并对 AI 模型进行分类。这里的目的是在开发前和开发阶段评估其 AI 系统的风险并实施风险缓解步骤。它涉及利用模型卡为 AI 模型提供预定义的风险评估,包括模型描述、预期用途、限制和道德考虑。这些风险评级提供了全面的详细信息,涵盖了毒性、恶意性、偏见、版权考虑、幻觉风险,甚至能源消耗和推理运行时间方面的模型效率等方面。根据这些评级,组织可以决定批准部署和使用哪些模型,阻止哪些模型以及哪些模型在使用前需要额外的护栏。
透明数据实践 - 将数据映射并监控到 AI 流。数据流入 AI 系统进行训练、调整和推理,数据流出 AI 系统作为输出。它允许企业发现其 AI 模型和 AI 系统的完整背景。即将 AI 模型和系统映射到相关数据源和系统、数据处理、SaaS 应用程序、潜在风险和合规义务。这种全面的映射使隐私、合规、安全和数据团队能够识别依赖关系、查明潜在故障点并确保 AI 治理是主动的而不是被动的。
强大的安全控制 - 将数据实施到 AI 控制。它允许建立严格的控制措施,以保证输入到 AI 模型和从 AI 模型生成的数据的安全性和机密性。此类控制措施包括安全框架和隐私法分别规定的数据安全和隐私控制措施。例如,可以应用编辑或匿名化技术,以从数据集中删除可识别的值。它确保数据安全地输入到 AI 模型中,符合企业数据策略和用户权利。如果敏感数据进入 LLM 模型,保护数据将变得极其困难。同样,如果企业数据被转换为矢量形式,保护数据将变得更具挑战性。在数据生成和输出方面,保护 AI 交互需要谨慎防范外部攻击、恶意内部使用和错误配置。为了确保与 AI 助手、机器人和代理的安全对话,应部署 LLM 防火墙来过滤有害的提示、检索和响应。这些防火墙应该能够防御 OWASP Top 10 for LLM 和 NIST AI RMF 框架中强调的各种漏洞,包括提示注入攻击和数据泄露攻击。
认真遵守监管框架 - 遵守法规。使用人工智能系统的企业必须遵守人工智能特定的法规和标准以及与使用人工智能相关的数据隐私义务。为了简化这一苛刻的合规流程,企业可以利用针对人工智能量身定制的全面合规自动化。这样的系统提供了广泛的全球人工智能法规和框架目录,包括 NIST AI RMF 和欧盟人工智能法案等。它有助于在其框架内创建不同的人工智能项目,使用户能够识别和应用每个项目的必要控制。此过程包括自动检查和评估,需要利益相关者的意见,从而提供确保合规性的整体方法。
成功实施人工智能治理的企业将实现
a) 对其批准和未批准的人工智能系统完全透明
b) 清晰了解人工智能风险
c) 人工智能与数据的映射
d) 强大的自动化人工智能+数据控制
e) 遵守全球人工智能法规。
总体而言,我们需要确保人工智能的安全使用。虽然优先考虑安全可能会导致短期内企业利润略有下降,但中长期收益是巨大的。
负责任的人工智能治理策略 | HackerNoon