paint-brush
ディープフェイクを真剣に考える@synthesys
811 測定値
811 測定値

ディープフェイクを真剣に考える

Synthesys AI Studio2022/04/18
Read on Terminal Reader
Read this story w/o Javascript

長すぎる; 読むには

ディープフェイクとは、視聴者を誤解させることを目的として、AI アルゴリズムによって、または AI アルゴリズムの助けを借りて作成された画像、音声、および動画です。 「ディープフェイク」という用語は、2017 年後半に同じ名前の Reddit ユーザーによって初めて使用されました。このユーザーは、Reddit サイトでオープンソースの顔交換技術を使用してポルノ ビデオを共有しました。テクノロジーを使用して、現実世界の人々がビデオやオーディオに登場し、発言したことも実行したこともないことを言ったり実行したり、既存のビデオの人々を置き換えたり、まったく存在しないキャラクター、有名人、または重要な政治家。

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - ディープフェイクを真剣に考える
Synthesys AI Studio HackerNoon profile picture


人工知能は消えません。この画期的なテクノロジーは、人間の思考をシミュレートするだけで効率を向上させる可能性があり、特定の問題を解決するようにトレーニングすることができます。によるとスタティスタ、AI は 2025 年までに 10 億ドル規模のより大きな産業になり、教育におけるパーソナライズされた学習から、電子商取引やビジネスにおける顧客サービスの向上に至るまで、さまざまなアプリケーションが使用されます。


人工知能の進歩の状況は無限かつ急速であり、新しいブレークスルーが毎日発生しています。例えば、AI動画や音声に関しては、新機能の追加や動画世代の増加が見込めます現実的で制御可能そのうちの 1 つが Deepfake です。


多くの点で、これは他の成長技術と同様に、倫理とリスク評価の新しいフロンティアです。これにより、人類の進歩における人工知能の役割を正式に指定するために、AI の倫理規定を採用する組織が生まれました。 AI 倫理規定の目的は、人工知能の使用に関する倫理的決定に直面したときに、利害関係者に非常に必要な方向性を提供することです。

ディープフェイク技術の紹介


ディープフェイクAI アルゴリズムによって、または AI アルゴリズムの助けを借りて作成された、視聴者を誤解させることを目的とした画像、音声、動画です。


「ディープフェイク」という用語は、2017 年後半に同じ名前の Reddit ユーザーによって初めて使用されました。このユーザーは、Reddit サイトでオープンソースの顔交換技術を使用してポルノ ビデオを共有しました。その後、この用語は、Reddit ページの前に存在した「合成メディア アプリケーション」や、「存在しない人々のリアルな静止画像」である STYLE-GAN などの新しい作成物を含むように拡張されました。


ディープフェイク テクノロジーは、誰かの行動 (声、顔、一般的な表情、身体の動きなど) を使用して、本物とほとんど区別できない新しいオーディオまたはビデオ コンテンツを生成します。この技術を使用して、現実世界の人々をビデオやオーディオに登場させて、発言したり実行したりしたことのないことを言ったり実行したり、既存のビデオの人々を置き換えたり、まったく存在しないキャラクターや有名人でビデオ コンテンツを作成したりできます。または重要な著名な政治家。これにより、ディープフェイクの倫理について多くの懸念が生じています。


ディープフェイク エフェクトは、ハイテク スタジオの専門家が作成するのに少なくとも 1 年を要していましたが、機械学習を使用することで、長年にわたるディープフェイク テクノロジーの急速な発展により、真に説得力のあるフェイク コンテンツの作成がはるかに簡単かつ迅速になりました。

AI 画像、AI ビデオ、AI オーディオの基盤となるネットワーク


ディープフェイクは、人工ニューラル ネットワーク (ANN) の開発から始まりました。 ANN は、人間の脳と非常によく似たニューロンのネットワーク上に構築された機械学習モデルです。ただし、AI は新しいデータが提供されても予測しないという点で異なります。代わりに、新しいデータを作成します。これらのアルゴリズムは Generative Adversarial Networks (GAN) として知られており、最近のブレイクスルーによって研究開発が促進され、ディープフェイクが出現しました。


ANN に基づく畳み込みニューラル ネットワーク (CNN) は、コンピュータの画像認識を実行するために視覚野が画像を処理する方法をシミュレートします。人工ニューラル ネットワークと畳み込みニューラル ネットワークは、ディープ ラーニング プログラムの基礎を築き、今日のディープフェイクを生成するアルゴリズムの根底にあるのが、Generative Adversarial Networks です。


たとえば、Zao や Faceapp (最も初期のディープフェイクの成功の 1 つ) などの顔交換アプリでは、ユーザーは自分の顔を別の人物 (場合によっては有名人) の顔と交換して、ディープフェイクや人工知能ビデオまたは数秒で画像。これらの進歩は、既存の顔の複製を作成し、存在しない人々の息を呑むほどリアルな表現を新たに構築することを可能にする画期的な技術であるディープ ジェネレーティブ モデリングの結果です。


この新しいテクノロジーが、プライバシーと身元に関する懸念を引き起こしたのは当然のことです。しかし、アルゴリズムが私たちの外見を構築できれば、声など、私たち自身のデジタルアイデンティティのさらに多くの特徴を複製すること、あるいは全身の二重を作成することは可能でしょうか?

脅威のディープフェイク ポーズ


ディープフェイクは、本物のニュースと偽のニュースの区別に苦労しているジャーナリストに圧力をかけ、プロパガンダを公開して選挙を混乱させることで国家安全保障を危険にさらし、当局に対する市民の信頼を損ない、サイバーセキュリティを強化するため、私たちのコミュニティ、政治システム、およびビジネスに重大な脅威をもたらします。個人と組織の懸念。


ディープフェイクは、ジャーナリズム ビジネスに最大の危険をもたらす可能性が最も高いと言えます。検出がより困難であり、消費者が偽物を本物であると想定する可能性が高いため、「従来の」フェイク ニュースよりも危険だからです。さらに、この技術により、表面上は信頼できるニュース ビデオの作成が可能になり、ジャーナリストやメディアの評判が危険にさらされます。 ほんの数枚の画像から、動画が作成できるようになりました実際の抗議行進や、別の場所で行われたことをほのめかすようなキャプションが付けられた暴力的な紛争など、誤って帰属されたビデオ素材は、ディープフェイクの台頭によってさらに深刻化する問題です。


ロイターたとえば、ニュージーランドのクライストチャーチで発生した銃乱射事件の目撃者のビデオを探しているときに、容疑者が警察に射殺された瞬間を映したと主張するビデオを発見しました。しかし、彼らはすぐにそれが米国での別の出来事によるものであり、クライストチャーチでの銃撃事件の容疑者は殺害されていないことに気付きました。


ディープフェイクは、政治的プロパガンダを広め、選挙運動を妨害することにより、国家安全保障を危険にさらすために使用される可能性があるため、諜報機関がある程度の恐怖を抱くだけで十分です。


米国の諜報機関は、特に選挙の準備段階で、米国の政治に外国が関与する危険性についてしばしば警告してきました。誰かの口に言葉を入れるバイラルビデオに投稿することは、今日の偽情報戦争における強力な武器であり、編集された映画は有権者の意見を簡単に左右する可能性があります.このような捏造された録音は、国内の不安、暴動、および選挙の混乱を引き起こす可能性が高い一方で、他の国民国家は、欺瞞に基づいて外交政策を実行することを選択し、国際的な危機や戦争につながる可能性があります.


このような録音の継続的な流れは、デジタル リテラシーと、当局が提供する情報に対する市民の信頼を妨げる可能性もあります。 Synthesys のようなテキスト読み上げ機能を使用して簡単に生成できる音声録音AIボイス決して起こらなかったことを表明する政府高官の割合は、人々に当局への不信を引き起こします。さらに、受け入れたくないものはすべて偽物に違いないと思い込むことを学んだという理由だけで、人々は本物のビデオテープを偽物として片付けてしまうかもしれません。言い換えれば、最大の危険は、人々がすべてをだまされているのではなく、欺瞞と見なし始めることです。


ディープフェイクがもたらすもう 1 つの問題は、サイバーセキュリティの脆弱性です。ディープフェイクは、例えば、CEO が人種差別的なわいせつな言葉を話したり、偽の合併を発表したり、犯罪を犯したかのように見せたりすることによって、市場や株式に影響を与えるためにも使用される可能性があります。さらに、ディープフェイク ポルノや製品発表は、企業のブランドを傷つけたり、脅迫したり、経営陣を辱めたりするために使用される可能性があります。ディープフェイク技術により、デジタル化された役員のなりすましが可能になり、たとえば、従業員に緊急の現金送金や個人情報を要求することができます。

ディープフェイクの良い面


ディープフェイク技術によってもたらされる潜在的な危険にもかかわらず、それは持つことができます肯定的なアプリケーションエンターテイメント、教育メディア、デジタル通信、ゲーム、ソーシャル メディア、ヘルスケアなどの分野で。


たとえば、病気のために俳優の声が失われた映画では、ディープフェイク テクノロジーを使用して合成音声を作成したり、映画の映像を作り直すのではなく更新したりできます。その結果、映画製作者は古い映画のシーンを再現したり、亡くなった俳優を主演にできる新しい映画を作成したりできるようになります。 CGI効果を採用ポストプロダクションでの複雑な顔の編集を行い、アマチュア ビデオをプロの基準に引き上げます。


また、ディープフェイク技術により、あらゆる言語の映画の自然な吹き替えが可能になり、さまざまな視聴者が映画や教材をより効果的に楽しむことができます。あ2019年の世界的なマラリア啓発コマーシャル主演のデビッド・ベッカムは、視覚と音声を変更するテクノロジーを使用して言語の境界を打ち破り、多言語に見えるようにしました。



https://www.youtube.com/watch?v=QiiSAvKJIHo


Deepfakes テクノロジーは、オンライン ゲームや仮想チャットの世界でのテレプレゼンスを改善し、自然な音声と見た目のスマート アシスタント、個人の仮想レプリカを提供します。これは、より良い人間関係とオンライン エンゲージメントの発展に貢献します。


また、ブランドに適用可能なディープフェイク テクノロジーの可能性は、e コマースと広告に大きな革命をもたらす可能性があるため、ビジネスにも多くのメリットがあります。


たとえば、Deepfake テクノロジーを使用すると、顧客は購入前に衣装がどのように表示されるかをプレビューできるようになり、時間、天候、視聴者によって変化するパーソナライズされたファッション コマーシャルを作成したり、 AIアバター顧客とのコミュニケーションをパーソナライズし、人をモデルに変える超個人的なコンテンツを可能にします。さらに、インターネットで服を試着できる機能は、明らかに潜在的な用途です。この技術により、人々は自分自身のデジタルクローンを作成できるだけでなく、デジタル形式でブライダルウェアを試着し、結婚式の場所を仮想的に体験することもできます.

受け入れる倫理的慣行


倫理は基本的に人間の福利を向上させたり妨げたりする可能性があるものすべてに関係するため、広範なイノベーションは倫理的な問題です。その結果、倫理は、ディープフェイクなどのイノベーションの目標、およびそれが実行されるプロセスとそこから生じる結果を判断する上で重要です。基本的な質問は、「ディープフェイクは誰のために設計されているのか?」です。


「彼らの創造の目的は何ですか?」 「最も深刻な結果をどのように軽減できますか?」これらの質問に答えることで、組織や個人は次のことに対応することができます。倫理的枠組み、画像、音声、またはビデオのディープフェイクに取り組んでいるかどうかに関係なく、ユニセフが維持しています。


それらには以下が含まれます:


  • ユーザーを念頭に置いて設計します。
  • 既存のエコシステムを理解する。
  • 規模に応じた設計。
  • 持続可能性のために構築します。
  • データドリブンであること。
  • オープン スタンダード、オープン データ、オープン ソース、オープン イノベーションを使用します。
  • 再利用して改善します。
  • 危害を加えないでください。
  • 協力的であること。