「もしあなたがそれを夢見ることができるなら、あなたはそれをすることができるだろう」そうですね? 何十年もの間、サイエンスフィクションの作家やビジョンアーティストはこれを想像してきました、そしてここに私たちはいます。 少し混乱した子供たちは、私たちの前にいるサンタが本物かどうかを確信していません。 Human imagination is a tricky thing. 毎日、私はニューラルネットワークが私たちに役立つことを確実にするために働いています - ゲーム、ブロックチェーン、その他。 そして何がもっと恐ろしいのか? 実際のもの以外に、これらの偽物を語ることはほぼ不可能だ。 これらのネットワークはあなたの顔、あなたの声、あなたの評判を盗むことができます。 Deepfakesは非常に現実的で、これは「Black Mirror」のエピソードではありません。我々は、ほぼ追跡できない方法で、人々をデジタルで再生し、複製するまで進むことができます。 Fighting Fire With Fire, Or The Ironic Loop Of AI Realism 火で火と戦うか、あるいはAI現実主義の皮肉なループ 2025年までに、深い現実主義はまったく新しいレベルに達しました。AI発電機と探知機の間の軍備競争は、世代のあらゆる進歩が我々の最良の防御力を上回る信頼の危機となっています。 最先端の拡散モデルとテキスト対ビデオツール(Soraクローン、HeyGen、またはD-IDを思い浮かべる)は、今、単なるプロンプトから超現実的な偽ビデオを生成することを容易にします。 一方、ビッグテクノロジーはアップを続けます。Googleの AIによって生成された画像を目に見えないようにウォーターマークすることを目指していますが、DeepMindのTruCheckはビデオのリアルタイムの認証チェックを約束しています。 シナリオ 2.0 シナリオ 2.0 しかし、問題は厳しい:我々はAIを解き明かすためにAIを訓練しますが、それが学ぶ時点で、もう一つのモデルはすでに嘘をつくのが良いです。それは、現実の私たちの感覚が遊び場である猫とマウスのゲームです。 Detection ≠ Solution. We Need Faster Learning 説得力のある偽物は、微妙な要因の複雑な混合物である:目の動き、顔のマイクロ表現、皮膚のテクスチャ、そして唇の同期とオーディオの間の小さな不一致です。 Deepfake detection isn’t as simple as spotting one obvious glitch. 例えば、Meta の AI Image Inspector は画像に調節されていますが、Runway Gen-3 または Sora のような高度な拡散モデルで作られたビデオまたはオーディオの偽物が欠けているかもしれません。 偽の解像度や圧縮が変化したときに、いくつかの検出器がどのように失敗するかを示した - 話し手のシグナルが消える 多くの専門家は、検出が「視覚的な推測」にのみ依存できないと主張する理由です。 MITの研究者 MITの研究者 しかし、これらのウォーターマークさえも切り替えたり変更したりすることができます。その取り外しは? ディープファクスを発見することは、単一の欠点を捕まえることではなく、何十ものヒントをまとめ、偽物がウイルスになる前に真実性を証明することです。このAIの武器競争では、メタデータは私たちが何も信頼し、すべてを疑う世界に対する最後の防衛ラインかもしれません。 No Deepfake Shall Pass. How Companies Keep the Fakes Out 偽のAMAビデオから偽のゲームトレーラーに至るまで、ディープファックスがどこにでも現れる場合、企業は24時間、デジタルボディガードをプレイすることを余儀なくされます。 多くのスタジオやWeb3プロジェクトでは、プレイヤーやインフルエンサーからユーザー生成コンテンツ(UGC)をスクリーンし、AIの妨害の兆候を見つけるために各クリップを2度チェックしています。 いくつかのプロジェクトは、C2PA(コンテンツの起源と正確性のための連合)などのブロックチェーンでサポートされた起源タグとAI検出器を組み合わせ、深いゴールを打ち出すことによりさらに進みます。 スタジオは今、大規模な発表、トレーラー、ライブAMAsのための公式な声優やビデオ声明を認証し、それらが起こる前に深いPRの災害を止める。 Verification isn’t just for assets. アドビ、マイクロソフト、ソニーなどの企業は、業界全体の基準を推進するためにC2PAイニシアチブに参加し、クリエイターとプレイヤーが「このコンテンツが本当の取引である」と信頼できるようにします。 言い換えれば、階層防衛は、信頼が絶えず包囲されている環境に対して最善の賭けです。このゲームでは、メッセージは単純です:あなたのコミュニティがその源を知っているなら、彼らは彼らが見ているものを信じることができます。 However, it’s not a silver bullet. Watermarks can be removed, and detection can fail. Future-Proofing Our Eyes: Trust, But Verify — Then Verify Again Future-Proofing Our Eyes: Trust, But Verify - Then Verify Again(未来を証明する私たちの目:信頼するが、検証するが、再度検証する) Deepfakesの未来は、より良いテクノロジーだけでなく、信頼自体を再定義することです。2026年までに、AI生成コンテンツはオンラインの風景と不正情報を支配する準備ができています。OODA Loopのアナリストらは2026年までに、オンラインコンテンツの90%がAIによって合成的に生成される可能性があると予測しています。 「ほとんどの場合、合成メディアはゲームのために生成され、サービスを改善したり、生活の質を向上させるために作られています」と報告書は読んでいますが、「合成メディアの増加と改善されたテクノロジーは、不正情報の可能性を生み出しました。 新しい報告書によると、 新しい報告書によると、 「毎日、人々は自分自身の感覚を信頼して、自分たちを導いて、何が現実で、何がそうでないかを伝える」と研究者らは続けた。 合成メディアがより安くなり、テキストとビデオのモデルが毎月向上するにつれて、SoraやRunwayのようなテキストとビデオのモデルは、完全に偽造を禁止するのではありません(それは不可能です)。 いくつかのスタートアップ企業は、リアルタイムで疑われたディープファックスを示すブラウザプラグインを構築しています。主要プラットフォームはすぐにデフォルトのコンテンツ出身タグを採用する可能性がありますので、ユーザーはすべてのクリップがどこから来ているかを知っています。 私たちは、市民に休憩をとって、こう尋ねるように教えなければなりません。 ある研究者が言ったように、 AIの幻想の時代では、合理的な疑いが私たちの最大の盾になるかもしれません。 “Who made this? How do I know?” “We can’t stop deepfakes. But we can help the world spot them faster than they can be weaponized.” 結論として言いたいことはたくさんあります。 Deepfakesはもはやサイエンスフィクションではなく、今日の現実です。AI生成ツールが強くなり、信頼を守る責任は企業とユーザーにかかります。はい、これらのニューラルネットワークを構築する人々は、強力なセキュリティー、透明な出身ツール、普遍的な基準を導く必要があります。 結局のところ、あなたが未来を構築しているなら、真理がまだチャンスを残している場所であることを確認してください。 画像源はこちら。 イラスト 画像 ソース . ここ