人工知能は消えません。この画期的なテクノロジーは、人間の思考をシミュレートするだけで効率を向上させる可能性があり、特定の問題を解決するようにトレーニングすることができます。によると
人工知能の進歩の状況は無限かつ急速であり、新しいブレークスルーが毎日発生しています。例えば、AI動画や音声に関しては、新機能の追加や動画世代の増加が見込めます
多くの点で、これは他の成長技術と同様に、倫理とリスク評価の新しいフロンティアです。これにより、人類の進歩における人工知能の役割を正式に指定するために、AI の倫理規定を採用する組織が生まれました。 AI 倫理規定の目的は、人工知能の使用に関する倫理的決定に直面したときに、利害関係者に非常に必要な方向性を提供することです。
「ディープフェイク」という用語は、2017 年後半に同じ名前の Reddit ユーザーによって初めて使用されました。このユーザーは、Reddit サイトでオープンソースの顔交換技術を使用してポルノ ビデオを共有しました。その後、この用語は、Reddit ページの前に存在した「合成メディア アプリケーション」や、「存在しない人々のリアルな静止画像」である STYLE-GAN などの新しい作成物を含むように拡張されました。
ディープフェイク テクノロジーは、誰かの行動 (声、顔、一般的な表情、身体の動きなど) を使用して、本物とほとんど区別できない新しいオーディオまたはビデオ コンテンツを生成します。この技術を使用して、現実世界の人々をビデオやオーディオに登場させて、発言したり実行したりしたことのないことを言ったり実行したり、既存のビデオの人々を置き換えたり、まったく存在しないキャラクターや有名人でビデオ コンテンツを作成したりできます。または重要な著名な政治家。これにより、ディープフェイクの倫理について多くの懸念が生じています。
ディープフェイク エフェクトは、ハイテク スタジオの専門家が作成するのに少なくとも 1 年を要していましたが、機械学習を使用することで、長年にわたるディープフェイク テクノロジーの急速な発展により、真に説得力のあるフェイク コンテンツの作成がはるかに簡単かつ迅速になりました。
ディープフェイクは、人工ニューラル ネットワーク (ANN) の開発から始まりました。 ANN は、人間の脳と非常によく似たニューロンのネットワーク上に構築された機械学習モデルです。ただし、AI は新しいデータが提供されても予測しないという点で異なります。代わりに、新しいデータを作成します。これらのアルゴリズムは Generative Adversarial Networks (GAN) として知られており、最近のブレイクスルーによって研究開発が促進され、ディープフェイクが出現しました。
ANN に基づく畳み込みニューラル ネットワーク (CNN) は、コンピュータの画像認識を実行するために視覚野が画像を処理する方法をシミュレートします。人工ニューラル ネットワークと畳み込みニューラル ネットワークは、ディープ ラーニング プログラムの基礎を築き、今日のディープフェイクを生成するアルゴリズムの根底にあるのが、Generative Adversarial Networks です。
たとえば、Zao や Faceapp (最も初期のディープフェイクの成功の 1 つ) などの顔交換アプリでは、ユーザーは自分の顔を別の人物 (場合によっては有名人) の顔と交換して、ディープフェイクや
この新しいテクノロジーが、プライバシーと身元に関する懸念を引き起こしたのは当然のことです。しかし、アルゴリズムが私たちの外見を構築できれば、声など、私たち自身のデジタルアイデンティティのさらに多くの特徴を複製すること、あるいは全身の二重を作成することは可能でしょうか?
ディープフェイクは、本物のニュースと偽のニュースの区別に苦労しているジャーナリストに圧力をかけ、プロパガンダを公開して選挙を混乱させることで国家安全保障を危険にさらし、当局に対する市民の信頼を損ない、サイバーセキュリティを強化するため、私たちのコミュニティ、政治システム、およびビジネスに重大な脅威をもたらします。個人と組織の懸念。
ディープフェイクは、ジャーナリズム ビジネスに最大の危険をもたらす可能性が最も高いと言えます。検出がより困難であり、消費者が偽物を本物であると想定する可能性が高いため、「従来の」フェイク ニュースよりも危険だからです。さらに、この技術により、表面上は信頼できるニュース ビデオの作成が可能になり、ジャーナリストやメディアの評判が危険にさらされます。
ディープフェイクは、政治的プロパガンダを広め、選挙運動を妨害することにより、国家安全保障を危険にさらすために使用される可能性があるため、諜報機関がある程度の恐怖を抱くだけで十分です。
米国の諜報機関は、特に選挙の準備段階で、米国の政治に外国が関与する危険性についてしばしば警告してきました。
このような録音の継続的な流れは、デジタル リテラシーと、当局が提供する情報に対する市民の信頼を妨げる可能性もあります。 Synthesys のようなテキスト読み上げ機能を使用して簡単に生成できる音声録音
ディープフェイクがもたらすもう 1 つの問題は、サイバーセキュリティの脆弱性です。ディープフェイクは、例えば、CEO が人種差別的なわいせつな言葉を話したり、偽の合併を発表したり、犯罪を犯したかのように見せたりすることによって、市場や株式に影響を与えるためにも使用される可能性があります。さらに、ディープフェイク ポルノや製品発表は、企業のブランドを傷つけたり、脅迫したり、経営陣を辱めたりするために使用される可能性があります。ディープフェイク技術により、デジタル化された役員のなりすましが可能になり、たとえば、従業員に緊急の現金送金や個人情報を要求することができます。
ディープフェイク技術によってもたらされる潜在的な危険にもかかわらず、それは持つことができます
たとえば、病気のために俳優の声が失われた映画では、ディープフェイク テクノロジーを使用して合成音声を作成したり、映画の映像を作り直すのではなく更新したりできます。その結果、映画製作者は古い映画のシーンを再現したり、亡くなった俳優を主演にできる新しい映画を作成したりできるようになります。
また、ディープフェイク技術により、あらゆる言語の映画の自然な吹き替えが可能になり、さまざまな視聴者が映画や教材をより効果的に楽しむことができます。あ
https://www.youtube.com/watch?v=QiiSAvKJIHo
Deepfakes テクノロジーは、オンライン ゲームや仮想チャットの世界でのテレプレゼンスを改善し、自然な音声と見た目のスマート アシスタント、個人の仮想レプリカを提供します。これは、より良い人間関係とオンライン エンゲージメントの発展に貢献します。
また、ブランドに適用可能なディープフェイク テクノロジーの可能性は、e コマースと広告に大きな革命をもたらす可能性があるため、ビジネスにも多くのメリットがあります。
たとえば、Deepfake テクノロジーを使用すると、顧客は購入前に衣装がどのように表示されるかをプレビューできるようになり、時間、天候、視聴者によって変化するパーソナライズされたファッション コマーシャルを作成したり、
倫理は基本的に人間の福利を向上させたり妨げたりする可能性があるものすべてに関係するため、広範なイノベーションは倫理的な問題です。その結果、倫理は、ディープフェイクなどのイノベーションの目標、およびそれが実行されるプロセスとそこから生じる結果を判断する上で重要です。基本的な質問は、「ディープフェイクは誰のために設計されているのか?」です。
「彼らの創造の目的は何ですか?」 「最も深刻な結果をどのように軽減できますか?」これらの質問に答えることで、組織や個人は次のことに対応することができます。
それらには以下が含まれます: