paint-brush
EU、規制されていないAIを禁止@konkiewicz
1,887 測定値
1,887 測定値

EU、規制されていないAIを禁止

Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

長すぎる; 読むには

欧州 AI 法は 2024 年末に施行されます。この法律では、AI システムをリスク レベル別に分類しています。リスクの高いシステムは透明性要件に従う必要があります。企業はトレーニング データの記録を保持する責任があります。これにより、企業はデータのプライバシーを尊重し、追跡可能性を向上させることが求められます。
featured image - EU、規制されていないAIを禁止
Magdalena Konkiewicz HackerNoon profile picture

世界的な影響と備え方

導入

過去 1 年間、ヨーロッパの AI スタートアップは海外の競合他社に追いつき、人気の ChatGPT に匹敵する製品を導入してきました。急速な進歩と開発に重点が置かれるため、透明性、倫理、ユーザーへの影響に関する問題は後回しにされることがあります。ただし、2024 年後半に開始される予定の EU AI 法の施行により、この状況は変化する可能性があります。


EU AI法2024年3月に欧州議会で承認されたこの法案は、EU内で開発されるAIに厳しい規制を導入するものです。しかし、その影響は欧州の国境を越えて広がり、欧州のAI企業だけでなく、EU市場に製品を提供する米国を含む国際企業にも直接影響を及ぼします。

誰が影響を受けるのでしょうか?

EU AI法は、AIシステムをリスクレベル別に分類しています。高リスクと分類されたシステムは、透明性要件に従う必要があり、公衆衛生、安全、人権、社会福祉への潜在的な影響の義務的評価が行われます。偏見がないかチェックされ、差別がなく、基本的人権を尊重していることが保証されます。


さらに、高リスクシステムの開発者は、コンプライアンスを証明するために、トレーニング方法やデータセットなどの詳細なドキュメントを維持する義務があります。


GPT-3.5 に匹敵する基礎モデルは、トレーニングに少なくとも 10²⁵ フロップスの計算能力が必要な場合は規制されます。逆に、オープンソース モデルに関しては大幅な譲歩が行われ、この種の製品を開発するインセンティブが提供されます。


さらに、EU AI 法では禁止されている AI システムがリストされています。これには、繊細な特性 (人種、宗教など) を使用した生体認証分類、顔画像のスクレイピング、職場や教育現場での感情認識、ソーシャル スコアリング、人間の行動の操作、人間の脆弱性を悪用するように設計されたシステムなどが含まれます。


この法律では、違反に対する制裁も規定されており、罰金は違反と企業規模に応じて、750万ユーロまたは企業の世界売上高の1.5%から3,500万ユーロまたは売上高の7%までの範囲となっている。

どのように準備すればいいでしょうか?

欧州AI法は2024年末に施行される見込みであるため、特にシステムが以下の分類に該当する場合は、今から準備を始めることが重要です。 リスクが高いまたは、汎用 AI モデルを開発している場合、システムが厳格な規制の対象とならなくても、ユーザーへの悪影響を避けるために、責任ある AI 開発に投資する価値があるかもしれません。


データの準備から始まり、徹底的なシステム評価で終わるシステム構築のあらゆる側面に重点を置くことをお勧めします。

トレーニングデータへの細心の注意

EU AI法に概説されているように、企業はデータセットの詳細な記録を保持する責任を負います。これにより、企業はデータのプライバシーを尊重し、追跡可能性を向上させることが求められます。たとえば、システムが有害なコンテンツを生成した場合、そのシステムがトレーニングされたデータセット内の不適切なデータや偏ったテキストにまでさかのぼることができます。


つまり、新しいルールを準備する際には、トレーニング データセットを慎重に検討する必要があります。これには、トレーニングに使用されるデータの一部をフィルタリングおよびクリーニングすることや、スクレイピングされたデータに存在する一般的なバイアスを回避するためにドメイン別にキュレートされ、意図的に構築されたカスタム データセットを構築することが含まれる場合があります。

人間のフィードバックによる調整方法

新しい規則に従うために、LLMを構築する企業は、真実性、有用性、無害性に焦点を当て、モデルを人間の期待に合わせることに投資する必要があります。LLMの調整に使用される主な方法は次のとおりです。 人間のフィードバックからの強化学習(RLHF)と 直接的な嗜好最適化(DPO)。


どちらの方法も、モデル出力に対する人間の好みを収集し、このデータを使用して、望ましい出力がどのようになるべきかをモデルに教えます。モデルに適切な例を提供すれば、この段階で有害なコンテンツの作成の大部分をかなり効果的に阻止できます。

詳細な評価

AI システムの評価は最優先事項となり、製品開発サイクルの一部となる必要があります。優れたモデルがあるという感覚を、綿密で徹底した評価戦略に置き換える必要があります。


生成 AI システムは、出力が決定論的ではないため、評価が特に困難です。生成されたテキストを「正しい」回答と自動的に比較することはできません。このようなシステムの評価には、正確性、有用性、無害性など、さまざまな側面に焦点を当てた人間によるフィードバックが必要です。


多くの場合、システムは上記の基本レベルよりもさらに詳細な評価が必要です。たとえば、有害性を評価する場合、偏見、ヘイトスピーチ、人種差別などのカテゴリにさらに細分化できます。そうすることで、システムの悪影響を最小限に抑えるためにシステムで修正する必要があるものを詳細なレベルで発見できます。

まとめ

間違いなく、EU AI法はAI規制における重要な一歩であり、責任あるAI開発がもはや選択肢ではなく、法的に施行されるAIの新時代を象徴しています。


あなたの会社は新しい AI 規制に準拠する準備ができていますか?