2020 年 4 月、ベルギーのソフィー ヴィルメス首相が
しかし、ビデオは本物ではありませんでした。それはエクスティンクション リベリオン ベルギーが、誰の顔の表情や声も操作できる AI 技術を使用して生成したディープ フェイクでした。ビデオはディープ フェイクとして分類されましたが、多くの人は免責事項に気付かなかったり、無視したりしました。一部の視聴者は偽の演説に混乱し、激怒しましたが、他の視聴者は首相の勇気とビジョンを称賛しました.
この例は、ディープ フェイク テクノロジーを使用して、重要な公人になりすまして偽情報を広め、世論に影響を与える方法を示しています。また、ディープ フェイクを検出して検証することがいかに難しいかを示しています。特に、モデレーションやファクト チェック機能が制限されているソーシャル メディア プラットフォームでディープ フェイクが共有されている場合はなおさらです。
お気に入りの有名人がスピーチをしているビデオを見ていると想像してください。あなたは彼らの雄弁さとカリスマ性に感銘を受け、彼らのメッセージに同意します.しかし、その後、ビデオが本物ではないことがわかります。それはディープフェイクであり、誰の姿も声も操ることができる人工知能が作り出した合成メディアだった。あなたはだまされ、混乱していると感じます。
オンラインで見たり聞いたりすることをどのように信頼できますか?
これはもはや架空のシナリオではありません。これが現実になりました。インターネット上には、著名な俳優、有名人、政治家、インフルエンサーのディープフェイクがいくつか出回っています。 TikTok でのトム クルーズやキアヌ リーブスのディープフェイクなどを含むものもあります。
簡単に言えば、ディープフェイクはAI によって生成されたビデオや画像であり、人、出来事、物の現実を改変または捏造することができます。この技術は人工知能の一種で、見た目も音もリアルですが本物ではない画像、動画、音声を作成または操作できます。
ディープフェイク テクノロジーは日々洗練され、アクセスしやすくなっています。娯楽、教育、研究、芸術など、さまざまな用途でご利用いただけます。しかし、誤った情報の拡散、プライバシーの侵害、評判の低下、なりすまし、世論への影響など、個人や社会に深刻なリスクをもたらす可能性もあります。
前回の記事では、Deepfake テクノロジ、その仕組み、およびそのプラスとマイナスの影響について説明しました。この記事では、ディープ フェイク テクノロジーの危険性と、その潜在的な害から身を守る方法について説明します。
私はかつて
この知識を得る前は、これまでで最も尊敬されている俳優の 1 人の話を聞いて気分が良かったのですが、実際に AI シミュレーションを聞いた最後には少しがっかりしました。このレートで、私たちが目にするいくつかのビデオが単なるディープフェイクだったらどうなるでしょうか?現実への脅威はますます憂慮すべきものになっています。
ディープフェイク技術にはポジティブな面もあるかもしれませんが、成長する社会では、ネガティブな面がポジティブな面を簡単に圧倒してしまいます。ディープフェイクの否定的な用途には次のようなものがあります。
ディープフェイクを使用して、有名人や一般の人々を対象とした偽のアダルト コンテンツを本人の同意なしに作成し、プライバシーと尊厳を侵害することができます。動画で顔を入れ替えたり、声を変えたりするのがとても簡単になったからです。驚くべきことですが、本当です。のこのスリラーをチェックしてください。言われるまで、違いに気付くことはありません。それが簡単であれば、あらゆるビデオの変更が可能です。
ディープフェイクは、大衆を欺いたり操作したりする可能性のある誤報やフェイク ニュースを広めるために使用される可能性があります。ディープフェイクは、政治家、有名人、またはその他の影響力のある人物が関与する、偽のスピーチ、インタビュー、またはイベントなどのデマ資料を作成するために使用できます。
記事の冒頭で述べたように、ディープフェイクのベルギーのソフィー ウィルメス首相がスピーチを行いましたが、本物のソフィー ウィルメスは決してスピーチをしませんでした。別のケース スタディはです。
顔の入れ替えや声の変更はディープフェイク技術で実行できるため、世論に影響を与えたり、暴力を扇動したり、選挙を妨害したりして、民主主義と社会の安定を損なうために使用される可能性があります。
虚偽のプロパガンダが作成される可能性があり、非常に見分けがつかない偽の音声メッセージやビデオが非現実的であり、世論に影響を与えたり、中傷を引き起こしたり、政治家、政党、または指導者を巻き込んだ脅迫に使用されたりする可能性があります。
ディープフェイクは、個人、組織、またはブランドになりすましたり中傷したりすることで、評判や信頼性を損なうために使用される可能性があります。キアヌ・リーブスのディープフェイクを TikTok で入手して、顧客、従業員、または競合他社が関与する偽のレビュー、証言、または支持を作成できると想像してみてください。
知らない人にとっては簡単に説得でき、何かがうまくいかない場合には、評判の低下や俳優への信頼の喪失につながる可能性があります.
ディープフェイクは、個人情報の盗難、詐欺、またはサイバー攻撃を可能にすることで、セキュリティ リスクを生み出すために使用できます。 2019 年、英国に本拠を置くエネルギー会社の CEO は、会社のドイツの親会社の責任者である上司から電話を受け、ハンガリーのサプライヤーに 220,000 ユーロの送金を命じました。ニュースソースによると、CEO は彼の首長の声の「わずかなドイツ語訛りとメロディー」を認め、1 時間以内に資金を送金するという指示に従いました。
しかし、発信者は再度別の電信送金を要求したため、不審になり、後に詐欺であることが確認されました。悲しいことに、これは上司の声のディープフェイクにすぎず、最初の 220,000 ユーロはメキシコに移され、他のアカウントに振り向けられていました。
しかし、ディープフェイク詐欺はこれだけではありません。ディープフェイク テクノロジーは、フィッシング詐欺、ソーシャル エンジニアリング、または個人情報や金融情報を含むその他の詐欺を作成するために、いくつかの状況で使用されてきました。
倫理的意味
ディープフェイク技術は、フェイク ポルノの作成、誹謗中傷、有名人や一般の人々のなりすましなど、本人の同意なく画像や音声を使用することで、人格権や尊厳を侵害する可能性があります。ディープフェイク テクノロジーは、虚偽の情報、フェイク ニュース、または大衆を欺いたり操作したりするプロパガンダを広めるために使用された場合、社会における真実、信頼、説明責任の価値を損なう可能性もあります。
法的影響
ディープフェイク技術は、知的財産権、名誉毀損権、契約権を保護する既存の法的枠組みや規制に挑戦する可能性があります。画像や音声が無断で使用される人々の著作権、商標、またはパブリシティー権を侵害する可能性があるためです。 .
ディープフェイク技術は、個人データが同意なしに使用される人々のプライバシー権を侵害する可能性があります。否定的または有害な方法で誤って描写された人々の評判や性格を中傷する可能性があります。
社会的影響
ディープフェイク技術は、苦痛、不安、抑うつ、または喪失に苦しむ可能性のあるディープフェイク操作の犠牲者に心理的、感情的、または経済的損害を与える可能性があるため、個人やグループの社会的幸福と結束に悪影響を与える可能性があります。所得。
また、人種、性別、宗教、または政治的所属に基づいて、特定のグループに対する暴力、憎悪、または差別を扇動し、さまざまなグループまたはコミュニティ間で社会的分裂や対立を引き起こす可能性もあります。
将来的には、ディープフェイク技術が制御されなければ、より洗練された悪意のある形の偽情報やプロパガンダを作成するために使用される可能性がある.また、政敵や活動家が関与する犯罪、スキャンダル、汚職の偽の証拠を作成したり、顧客、従業員、競合他社が関与する偽の証言、推薦、レビューを作成したりするためにも使用される可能性があります。
世界の指導者が宣戦布告したり、虚偽の自白をしたり、過激派のイデオロギーを支持したりするディープフェイクの動画を想像してみてください。それは世界全体にとって非常に有害である可能性があります。
ディープフェイクの検出と規制の現状はまだ発展途上にあり、多くの課題に直面しています。ディープフェイク コンテンツを特定してオンラインでの拡散を防止することが難しい理由には、次のようなものがあります。
さらに、ディープフェイク規制の執行と監視は、ディープフェイク コンテンツの作成者と配信者の特定、責任と説明責任の確立、適切な制裁または救済措置の適用など、実際的および技術的な困難に直面する可能性があります。
ソーシャル メディア プラットフォームのポリシー:ソーシャル メディア プラットフォームは、有害または欺瞞的なディープフェイクを禁止またはラベル付けするか、ユーザーにディープフェイク技術の使用を開示するよう要求することにより、プラットフォーム上でのディープフェイク コンテンツの作成および配布を規制するポリシー、ガイドライン、および基準を実装できます。 .この戦略は、Facebook、Twitter、YouTube などの人気のある影響力のあるプラットフォームで、有害または欺瞞的なディープフェイクの露出と拡散を減らすのに効果的です。電子透かし、ブロックチェーンベースの来歴システム、逆画像検索エンジンなどのディープフェイクの検出および検証ツールを展開して、ディープフェイクのアップロードを防止することもできます。これらのプラットフォームは、ファクトチェッカー、研究者、市民社会グループなどの他の利害関係者と協力して、ディープフェイク コンテンツを監視し、対抗することもできます。ただし、これらのソリューションは、スケーラビリティ、精度、透明性、説明責任などの課題に直面する可能性があります。
検出アルゴリズム:検出アルゴリズムは、機械学習とコンピューター ビジョン技術を使用して、ディープフェイク コンテンツの特徴と特性 (顔の表情、目の動き、照明、音質など) を分析し、不正操作を示す矛盾や異常を識別します。研究者は、検出アルゴリズムを改善するために、人工ニューラル ネットワーク、コンピューター ビジョン アルゴリズム、生体認証システムなど、ディープフェイクの検出および検証テクノロジを開発および改善できます。
また、ディープフェイクの検出と検証方法を評価するためのデータセットとベンチマークを作成して共有し、ディープフェイク技術の社会的および倫理的影響に関する学際的な研究を実施することもできます。この戦略は、操作を示す矛盾または異常を識別することにより、機能の分析に効果的です。ただし、これらのソリューションは、データの可用性、品質、プライバシー、倫理的ジレンマ、二重使用のリスクなどの課題に直面する可能性があります。
インターネットの反応:これは、疑わしいまたは有害なディープフェイクにフラグを立てたり、報告したり、暴言を吐いたり、批判したり、それらを暴露または嘲笑するために反論やパロディを作成したりするなど、ディープフェイク コンテンツに対するオンライン ユーザーおよびコミュニティの集合的な反応を指します。ユーザーはクリティカル シンキングとメディア リテラシーのスキルを身につけて、ディープフェイク コンテンツを特定して検証できます。また、ブラウザー拡張機能、モバイル アプリ、オンライン プラットフォームなどのディープフェイク検出および検証ツールを使用して、ソーシャル メディアやその他のプラットフォームで遭遇したディープフェイクを嗅ぎ分けることもできます。ディープフェイク コンテンツとして報告またはフラグを立てることができます。インターネットの反応戦略は、ディープフェイク コンテンツに対するオンライン ユーザーとコミュニティの集合的な反応を動員するのに効果的です。ただし、これらのソリューションは、認知バイアス、情報の過負荷、デジタル デバイド、信頼の問題などの課題に直面する可能性があります。
DARPA のイニシアチブ: DARPA のイニシアチブは、国防高等研究計画局 (DARPA) によって資金提供された研究開発プロジェクトを指し、大規模なデータセット、ベンチマーク、およびディープフェイク研究のための課題を作成するなどして、ディープフェイクの検出および軽減技術の開発を進めます。 .彼らは、ディープフェイクやその他の形式のメディア操作を自動的に検出して分析できる技術を開発することを目的としています。 DARPA には、ディープフェイクの検出専用の 2 つのプログラムがあります。メディア フォレンジック (MediFor) とセマンティック フォレンジック (SemaFor) です。
2021 年度に終了したMedia Forensics (MediFor)は、写真やビデオの完全性を自動的に評価するアルゴリズムを開発し、偽造コンテンツがどのように生成されたかについての情報をアナリストに提供することでした。このプログラムは、ピクセルの不一致 (デジタル完全性)、物理法則との不一致 (物理的完全性)、および他の情報源との不一致 (意味的完全性) など、ディープフェイクに存在する視聴覚の不一致を識別するための技術を調査したと伝えられています。 MediFor テクノロジは、運用コマンドとインテリジェンス コミュニティに移行することが期待されています。
2021 年に発表されたセマンティック フォレンジック (SemaFor)は、改ざんされたメディア資産の検出、属性、特徴付けを自動化できる技術を開発することで、検出者とマニピュレーターの間の戦いでアナリストが優位に立つことを目指しています。プログラムは、自動化されたメディア ジェネレーターの重大な弱点を悪用することを目的としています: すべてのセマンティクスを正しく取得することの難しさです。たとえば、ニュース記事のテキストから付随する画像、画像自体の要素に至るまで、すべてが確実に整列するようにします。 SemaFor はまた、検出、属性、および特徴付けアルゴリズムによって提供される証拠を自動的に組み立ててキュレートするための技術を開発しています。
さらに、DARPA はディープフェイクの防御モデルを構築して、人々がどのように頭や顔の筋肉を動かすかを記録しました。同機関はこのデータを使用してソフトウェア ツールに統合し、「著名人」のビデオを分析し、行動を実際の個人と比較しました。
法的対応:これは、ディープフェイクの悪用の被害者の権利と利益を保護したり、加害者に自分の行動の責任を負わせたりするなど、ディープフェイク技術によって引き起こされる法的および倫理的問題に対処するために、既存または新しい法律や規制を適用することです。 .政府は、同意のないポルノ、名誉毀損、選挙妨害などの有害なディープフェイク コンテンツの作成と配布を禁止または制限する法律や規制を制定できます。また、ディープフェイクの検出と検証技術の研究開発、および一般向けの教育と意識向上キャンペーンもサポートできます。
いくつかの法律は、さまざまな国でディープフェイク技術に対処していますが、包括的でも一貫性もありません。
例えば:
米国では、 国防権限法 (NDAA) により、国土安全保障省 (DHS) がディープフェイクとその潜在的な被害に関する年次報告書を発行することが義務付けられています。 Generative Adversarial Networks Act の識別出力は、国立科学財団 (NSC) と国立標準研究所 (NIS) と技術に、ディープフェイク技術と真正性測定の研究を要求しています。ただし、ディープフェイク技術を明示的に禁止または規制する連邦法はありません。
中国では、新しい法律により、操作された素材には対象者の同意があり、デジタル署名または透かしを付けることが義務付けられており、ディープフェイク サービス プロバイダーは「噂に反論する」方法を提供する必要があります。しかし、一部の人々は、政府がこの法律を利用して言論の自由を制限したり、反対意見を検閲したりするのではないかと心配しています。
インドには、ディープフェイクを禁止する明確な法律はありませんが、ディープフェイクが関係する名誉毀損、詐欺、わいせつ行為の場合には、情報技術法やインド刑法などの既存の法律が適用される場合があります。
英国では、ディープフェイクに関する特定の法律もありませんが、プライバシー、データ保護、知的財産、パッシング オフなどの一部の法理は、不要なディープフェイクまたは操作されたビデオに関する紛争に関連する場合があります。
法的対応は、ディープフェイクの疑わしさと戦う上で効果的な戦略となる可能性があります。ただし、これらのソリューションは、言論の自由とプライバシー権のバランス、国境を越えた管轄権の施行、急速に変化するテクノロジーへの適応などの課題に直面する可能性があります。
DeepFake テクノロジーは現在も進歩を続けており、より優れた、よりリアルなバージョンへと急速に進化しています。このため、このテクノロジーに付随する可能性のある脅威に積極的に取り組む必要があります。以下は、その悪影響を軽減するために実行できると私が信じるアクションの一部です。
ディープフェイク テクノロジーの倫理的および法的枠組みと基準の確立:ディープフェイク コンテンツの作成者と消費者の権利と責任を定義し、境界を設定し、ディープフェイク技術の合法的および非合法的な使用の基準、またはディープフェイクの悪用の被害者を保護し、加害者を処罰するための法律および規制の施行。同意のないポルノ、名誉毀損、選挙妨害などの有害なディープフェイク コンテンツの被害者と標的の権利と利益を保護する法律や規制を制定し、施行するには、より多くの法的措置が必要です。
行動は、ディープフェイク コンテンツの国境を越えた性質とディープフェイク テクノロジーの急速に変化する性質を考慮して、調整され、一貫性があり、適応可能であるべきであり、言論の自由とプライバシーの権利を考慮して、バランスが取れ、バランスが取れており、尊重されるべきです。ディープフェイク コンテンツの作成者と消費者の
ディープフェイク技術は、さまざまな方法で個人やグループに危害を加える可能性のある虚偽または誤解を招くコンテンツを作成する可能性があります。ただし、ディープフェイク テクノロジーは、エンターテイメント、メディア、政治、教育、芸術、ヘルスケア、およびアクセシビリティにも積極的に使用できます。したがって、ディープフェイク技術のリスクと利点のバランスを取り、それを検出、防止、規制するための効果的かつ倫理的な方法を開発することが重要です。
この目標を達成するには、政府、プラットフォーム、研究者、およびユーザーが協力して取り組みを調整し、意識と責任を高める必要があります。そうすることで、ディープフェイク技術の威力と潜在的な利点を活用しながら、その害を最小限に抑えることができます。