過去 1 年間、ヨーロッパの AI スタートアップは海外の競合他社に追いつき、人気の ChatGPT に匹敵する製品を導入してきました。急速な進歩と開発に重点が置かれるため、透明性、倫理、ユーザーへの影響に関する問題は後回しにされることがあります。ただし、2024 年後半に開始される予定の EU AI 法の施行により、この状況は変化する可能性があります。
の
EU AI法は、AIシステムをリスクレベル別に分類しています。高リスクと分類されたシステムは、透明性要件に従う必要があり、公衆衛生、安全、人権、社会福祉への潜在的な影響の義務的評価が行われます。偏見がないかチェックされ、差別がなく、基本的人権を尊重していることが保証されます。
さらに、高リスクシステムの開発者は、コンプライアンスを証明するために、トレーニング方法やデータセットなどの詳細なドキュメントを維持する義務があります。
GPT-3.5 に匹敵する基礎モデルは、トレーニングに少なくとも 10²⁵ フロップスの計算能力が必要な場合は規制されます。逆に、オープンソース モデルに関しては大幅な譲歩が行われ、この種の製品を開発するインセンティブが提供されます。
さらに、EU AI 法では禁止されている AI システムがリストされています。これには、繊細な特性 (人種、宗教など) を使用した生体認証分類、顔画像のスクレイピング、職場や教育現場での感情認識、ソーシャル スコアリング、人間の行動の操作、人間の脆弱性を悪用するように設計されたシステムなどが含まれます。
この法律では、違反に対する制裁も規定されており、罰金は違反と企業規模に応じて、750万ユーロまたは企業の世界売上高の1.5%から3,500万ユーロまたは売上高の7%までの範囲となっている。
欧州AI法は2024年末に施行される見込みであるため、特にシステムが以下の分類に該当する場合は、今から準備を始めることが重要です。
データの準備から始まり、徹底的なシステム評価で終わるシステム構築のあらゆる側面に重点を置くことをお勧めします。
EU AI法に概説されているように、企業はデータセットの詳細な記録を保持する責任を負います。これにより、企業はデータのプライバシーを尊重し、追跡可能性を向上させることが求められます。たとえば、システムが有害なコンテンツを生成した場合、そのシステムがトレーニングされたデータセット内の不適切なデータや偏ったテキストにまでさかのぼることができます。
つまり、新しいルールを準備する際には、トレーニング データセットを慎重に検討する必要があります。これには、トレーニングに使用されるデータの一部をフィルタリングおよびクリーニングすることや、スクレイピングされたデータに存在する一般的なバイアスを回避するためにドメイン別にキュレートされ、意図的に構築されたカスタム データセットを構築することが含まれる場合があります。
新しい規則に従うために、LLMを構築する企業は、真実性、有用性、無害性に焦点を当て、モデルを人間の期待に合わせることに投資する必要があります。LLMの調整に使用される主な方法は次のとおりです。
どちらの方法も、モデル出力に対する人間の好みを収集し、このデータを使用して、望ましい出力がどのようになるべきかをモデルに教えます。モデルに適切な例を提供すれば、この段階で有害なコンテンツの作成の大部分をかなり効果的に阻止できます。
AI システムの評価は最優先事項となり、製品開発サイクルの一部となる必要があります。優れたモデルがあるという感覚を、綿密で徹底した評価戦略に置き換える必要があります。
生成 AI システムは、出力が決定論的ではないため、評価が特に困難です。生成されたテキストを「正しい」回答と自動的に比較することはできません。このようなシステムの評価には、正確性、有用性、無害性など、さまざまな側面に焦点を当てた人間によるフィードバックが必要です。
多くの場合、システムは上記の基本レベルよりもさらに詳細な評価が必要です。たとえば、有害性を評価する場合、偏見、ヘイトスピーチ、人種差別などのカテゴリにさらに細分化できます。そうすることで、システムの悪影響を最小限に抑えるためにシステムで修正する必要があるものを詳細なレベルで発見できます。
間違いなく、EU AI法はAI規制における重要な一歩であり、責任あるAI開発がもはや選択肢ではなく、法的に施行されるAIの新時代を象徴しています。
あなたの会社は新しい AI 規制に準拠する準備ができていますか?