paint-brush
欧盟叫停不受监管的人工智能经过@konkiewicz
2,445 讀數
2,445 讀數

欧盟叫停不受监管的人工智能

经过 Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

太長; 讀書

欧洲人工智能法案将于 2024 年底生效。该法案根据风险等级对人工智能系统进行分类。高风险系统需要遵守透明度要求。公司将负责保存训练数据的记录。这将迫使公司尊重数据隐私并提高可追溯性。
featured image - 欧盟叫停不受监管的人工智能
Magdalena Konkiewicz HackerNoon profile picture

全球影响及应对方法

介绍

在过去的一年里,欧洲的人工智能初创公司一直在追赶海外竞争对手,并推出了与流行的 ChatGPT 相当的产品。由于专注于快速进步和发展,透明度、道德和用户影响等问题有时会被搁置。然而,随着《欧盟人工智能法案》的实施,这种情况可能会发生变化,该法案将于 2024 年底开始实施。


欧盟人工智能法案2024 年 3 月欧洲议会批准的法案对欧盟内部开发的人工智能引入了严格的监管。然而,其影响超出了欧洲边界,不仅直接影响欧洲人工智能公司,还直接影响在欧盟市场提供产品的国际公司,包括来自美国的公司。

谁会受到影响?

欧盟《人工智能法案》根据风险等级对人工智能系统进行分类。被标记为高风险的系统需要遵守透明度要求,必须评估对公共健康、安全、人权和社会福利的潜在影响。这些系统将接受偏见检查,以确保其不带有歧视性并尊重基本人权。


此外,高风险系统的开发人员有义务保留详细的文档,包括培训方法和数据集,以证明合规性。


如果与 GPT-3.5 相当的基础模型需要至少 10²⁵ 次浮点运算来训练,则将受到监管。相反,对于开源模型,将有重大让步,从而激励开发此类产品。


此外,欧盟人工智能法案还列出了禁止的人工智能系统。其中包括利用敏感特征(例如种族、宗教等)进行生物识别分类、抓取面部图像、工作场所和教育情绪识别、社交评分、操纵人类行为以及旨在利用人类弱点的系统。


该法案还对不合规行为规定了制裁,罚款金额从 750 万欧元或公司全球营业额的 1.5% 到 3500 万欧元或公司营业额的 7% 不等,具体取决于违规行为和公司规模。

如何做好准备?

由于《欧洲人工智能法案》可能于 2024 年底生效,因此现在就开始准备非常重要,尤其是如果您的系统被归类为高风险或者您正在开发通用 AI 模型。即使您的系统不受严格监管,也值得投资于负责任的 AI 开发,以避免对用户产生负面影响。


我们建议关注系统构建的各个方面,从数据准备开始,到深入的系统评估结束。

密切关注训练数据

根据欧盟《人工智能法案》的规定,公司将负责保存数据集的详细记录。这将迫使公司尊重数据隐私并提高可追溯性。例如,如果系统产生有害内容,则可以追溯到其训练数据集中的不适当数据或有偏见的文本。


这意味着在准备新规则时,应仔细考虑训练数据集。这可能涉及过滤和清理用于训练的部分数据,甚至构建自定义数据集,这些数据集是针对领域精心策划的,专门构建的,以避免抓取数据中存在的常见偏见。

带有人工反馈的对齐方法

为了遵守新规则,建立 LLM 的公司应投资使其模型符合人类的期望,重点关注真实性、有用性和无害性。用于 LLM 对齐的主要方法是 根据人类反馈进行强化学习(RLHF)和 直接偏好优化(数据保护专员)。


这两种方法都收集了人类对模型输出的偏好,并利用这些数据来告诉模型理想的输出应该是什么样的。如果我们为模型提供正确的示例,我们可以在这个阶段非常有效地阻止大多数有害内容的创建。

深入评估

人工智能系统的评估将成为重中之重,需要成为产品开发周期的一部分。拥有一个好模型的感觉必须被细致深入的评估策略所取代。


生成式人工智能系统尤其难以评估,因为其输出结果不确定。生成的文本无法自动与“正确”答案进行比较。此类系统的评估需要人工反馈,重点关注正确性、有用性和无害性等多个方面。


很多时候,我们需要对系统进行比上述基本层面更深入的评估。例如,在评估危害性时,我们可以将其进一步细分为偏见、仇恨言论、种族主义等类别。这样,我们就可以在更细微的层面上发现系统中需要修复哪些地方,以最大限度地减少其负面影响。

概括

毫无疑问,欧盟《人工智能法案》是人工智能监管方面的重要一步,它标志着人工智能新时代的开始,负责任的人工智能开发不再是一种选择,而将得到法律强制执行。


您的公司准备好遵守新的人工智能法规了吗?