Google Research とテルアビブ大学によるこの新しいモデルは素晴らしいものです。 MyStyle は、基本的に何でもできる非常に強力なディープフェイク モデルです。 任意の人物の写真を 100 枚撮影すると、そのペルソナがエンコードされ、必要なリアルな写真を修正、編集、または作成できます。 私に言わせれば、特に結果を見ると、これは驚くべきことであると同時に恐ろしいことでもあります。ビデオを見て、より多くの結果を確認し、モデルがどのように機能するかを理解してください! ビデオを見る 参考文献 ►記事全文を読む: ►Nitzan, Y., Aberman, K., He, Q., Liba, O., Yarom, M., Gandelsman, Y., Mosseri, I.、Pritch, Y.、Cohen-Or, D.、2022 年。 ジェネレーティブ プライアー。 arXiv プレプリント arXiv:2203.17272. ►プロジェクトリンク: ►コード (近日公開予定): ►マイ ニュースレター (毎週メールで説明される新しい AI アプリケーション!): https://www.louisbouchard.ai/mystyle/ https://mystyle-personalized-prior.github.io/ https://mystyle-personalized-prior.github.io/ https://www.louisbouchard.ai/newsletter/ ビデオトランスクリプト 0:00 Google Researchによるこの新しいモデルと 0:02 テルアビブ大学は素晴らしいです 0:05 それは非常に強力なディープとして見ることができます 0:07 何でもできる偽物 0:10 任意の人の写真とあなたはその 0:12 編集または作成を修正するためにエンコードされた人員 0:15 あなたが望む現実的な絵はこれです 0:18 あなたが私に尋ねると、驚くべきことと恐ろしいことの両方 0:20 特に結果を見ると 0:23 彼らを賞賛するのに少し時間を取ってください 0:36 [音楽] 0:50 モデルは事前にトレーニングされた 0:52 私がカバーしたスタイルガンアーキテクチャ 0:54 多数のビデオで、私は入りません 0:56 このネットワークの詳細はすぐに星を付けます 0:58 銃は画像を取得し、それを使用してエンコードします 1:01 畳み込みニューラル ネットワークとは 1:03 次の場合に同じ画像を再生成するように訓練された 1:05 これはあなたにとって別の言語のように聞こえます 1:08 ビデオを見るのに2分かかります 1:10 カバーリングスタイルガンを作りました 1:12 それからあなたがそれをよく訓練したとき 1:15 多くの人々のビッグデータセット 1:17 画像を直接変換するように教える 1:20 で説明したように、エンコードされたスペースから 1:22 私の動画なので、フェードする必要はありません 1:24 画像はもう簡単に遊べます 1:27 私たちがジェネレーターと呼んでいるのは、これが意味するものです 1:29 全体を変えるように教えることができます 1:31 スタイル転送のような画像 1:33 たとえば、アプリケーション 1:35 リアルな写真を撮ってエンコードする 1:38 またはエンコーディングから直接開始し、 1:40 デジタルのようなアニメに変換する 1:43 適切にトレーニングおよび操作された画像 1:45 一部のローカルのみを変更することもできます 1:48 髪の色などの特徴や 1:50 あなたをあなたらしく見せるためのその他の編集 1:52 一番 1:53 私のスタイルと呼ばれるこの新しいモデルは 1:56 スタイルガンベースモデルとそれを修正 1:59 スタイルトランスファーだけでなく 2:01 タスクを除く、関連付けることができるすべてのタスク 2:04 私は文字通りそれを言ったようにあなたの顔で 2:06 あなたがどのように見えるかを学び、きれいにすることができます 2:08 絵のスーパーで何でも 2:11 解像度または編集想像絵画 2:13 あなたがいくつかのオブジェクトを持っている場所です 2:15 あなたの顔を覆うショットとあなたは削除します 2:17 写真から被写体を取り出して作る 2:19 あなたの顔があなたのように再び現れます 2:22 ビデオゲームで透明性を有効にする 2:24 壁の画像を超透視 2:27 解決は非常に困難です 2:29 多くに一般化しようとするときのタスク 2:31 さまざまな顔ですが、あなたがいるときははるかに簡単です 2:33 ここでの目標は 1 人に焦点を当てることです。 2:36 非常に低解像度の画像を撮影し、 2:38 高解像度のものにアップスケールするので、 2:41 あなたは基本的にこれがぼやけた画像を持っています 2:43 あなた自身の、そしてあなたはそれを見せようとします 2:46 このように、これら2つの方法を見ることができます 2:48 アプリケーションは非常に困難です 2:50 を理解する必要があるため、 2:52 大きなギャップを埋めるために、または 2:55 ピクセルを追加して顔をシャープに見せる 2:57 モデルは基本的に両方でなければなりません 2:59 あなたのとても親しい友人であり、素晴らしい 3:02 必要なときに同時にアーティスト 3:04 あなたの顔がどのように見えるかを知っています 3:06 角度だけでなく、それを描くことができます 3:08 現実的に、私はいつもそうします 3:11 ベストフレンドになるためにできること 3:13 私が絵を描いていることを忘れる可能性があります 3:15 あなたの顔の正確なバージョン 3:17 良い結果が欲しい 3:19 レベルなのでこのスタイルのガンベースをとります 3:22 の膨大な一般データセットで訓練する 3:24 何千人も何百人も 3:26 あなた自身の写真 私のスタイルは学びます 3:29 あなたの顔に固有のコード化された空間 3:32 基本的に含まれているであなたを見つけます 3:35 すべての顔の表現となる 3:37 モデルをプッシュして集中するように再トレーニング 3:39 あなたのさまざまな機能 3:42 不完全または失敗した餌を与えることができます 3:44 自分の写真を撮り、修正を依頼する 3:46 それが必要とすることはあなたにとってどれほどクールか 3:49 自分の画像が多いですが、 3:52 100枚の写真は大切な日を意味します 3:54 外で友達や携帯電話と一緒に 3:56 よりもはるかに優れた結果をもたらします。 3:58 に一般化しようとする一般モデル 4:00 誰もがそれもはるかに安いです 4:02 フォトショップの専門家を雇い、 4:05 将来のすべての写真を編集するように依頼する 4:08 この種のモデルがどのように機能するかを見ることができます 4:10 有名人や 4:12 インスタグラムの写真が多い方 4:15 誰かがそれらを使用してモデルをトレーニングできます 4:17 そして基本的に超現実的なものを作成します 4:19 妥協する自分の写真 4:21 これが私がよく言う理由です 4:24 私たちはもう目に見えるものを信頼することはできません 4:26 特にインターネットではやめましょう 4:29 考えられるすべての問題について考える 4:31 それは現実世界にもあります 4:33 それでも拡張現実メガネ 4:36 結果は素晴らしく、多くの 4:38 私たちが以前に見たものよりも良い 4:40 100個しか必要ないことを考えると 4:43 何時間もの写真ではなく、自分の写真 4:45 年上のディープフェイスのビデオ撮影と 4:48 それらよりもアーティファクトがはるかに少ない 4:50 より少ない画像を必要とし、 4:53 単一のタスクとvoiraこれが私の方法です 4:57 Google Research から新しいモデルのスタイルを設定する 4:59 テルアビブ大学は 5:01 イメージ・ペインティング・イメージ・スーパーを行う 5:04 を使用した解像度と画像編集 5:06 単一のアーキテクチャとトレーニング スキーム 5:09 他のアプローチと比較して 5:11 代わりに人に焦点を当てます 5:13 それをはるかに行うタスク自体 5:16 正確で現実的で一般化可能 5:18 このビデオを楽しんでいただければ幸いです。 5:21 あなたがこれについてどう思うか知ってください 5:22 好むと好まざるとにかかわらず、よりシンプルなフォーマット 5:25 もちろん、これはこれの概要にすぎません 5:27 新しい紙と私は強くお勧めします 5:29 より良いために論文を読む 5:31 トレーニングスキームの理解 5:33 そしてモデルは来週お会いしましょう 5:35 別の素晴らしい紙で [音楽]