Google Research とテルアビブ大学によるこの新しいモデルは素晴らしいものです。 MyStyle は、基本的に何でもできる非常に強力なディープフェイク モデルです。
任意の人物の写真を 100 枚撮影すると、そのペルソナがエンコードされ、必要なリアルな写真を修正、編集、または作成できます。
私に言わせれば、特に結果を見ると、これは驚くべきことであると同時に恐ろしいことでもあります。ビデオを見て、より多くの結果を確認し、モデルがどのように機能するかを理解してください!
►記事全文を読む: https://www.louisbouchard.ai/mystyle/
►Nitzan, Y., Aberman, K., He, Q., Liba, O., Yarom, M., Gandelsman, Y.,
Mosseri, I.、Pritch, Y.、Cohen-Or, D.、2022 年。
ジェネレーティブ プライアー。 arXiv プレプリント arXiv:2203.17272.
►プロジェクトリンク: https://mystyle-personalized-prior.github.io/
►コード (近日公開予定): https://mystyle-personalized-prior.github.io/
►マイ ニュースレター (毎週メールで説明される新しい AI アプリケーション!): https://www.louisbouchard.ai/newsletter/
0:00
Google Researchによるこの新しいモデルと
0:02
テルアビブ大学は素晴らしいです
0:05
それは非常に強力なディープとして見ることができます
0:07
何でもできる偽物
0:10
任意の人の写真とあなたはその
0:12
編集または作成を修正するためにエンコードされた人員
0:15
あなたが望む現実的な絵はこれです
0:18
あなたが私に尋ねると、驚くべきことと恐ろしいことの両方
0:20
特に結果を見ると
0:23
彼らを賞賛するのに少し時間を取ってください
0:36
[音楽]
0:50
モデルは事前にトレーニングされた
0:52
私がカバーしたスタイルガンアーキテクチャ
0:54
多数のビデオで、私は入りません
0:56
このネットワークの詳細はすぐに星を付けます
0:58
銃は画像を取得し、それを使用してエンコードします
1:01
畳み込みニューラル ネットワークとは
1:03
次の場合に同じ画像を再生成するように訓練された
1:05
これはあなたにとって別の言語のように聞こえます
1:08
ビデオを見るのに2分かかります
1:10
カバーリングスタイルガンを作りました
1:12
それからあなたがそれをよく訓練したとき
1:15
多くの人々のビッグデータセット
1:17
画像を直接変換するように教える
1:20
で説明したように、エンコードされたスペースから
1:22
私の動画なので、フェードする必要はありません
1:24
画像はもう簡単に遊べます
1:27
私たちがジェネレーターと呼んでいるのは、これが意味するものです
1:29
全体を変えるように教えることができます
1:31
スタイル転送のような画像
1:33
たとえば、アプリケーション
1:35
リアルな写真を撮ってエンコードする
1:38
またはエンコーディングから直接開始し、
1:40
デジタルのようなアニメに変換する
1:43
適切にトレーニングおよび操作された画像
1:45
一部のローカルのみを変更することもできます
1:48
髪の色などの特徴や
1:50
あなたをあなたらしく見せるためのその他の編集
1:52
一番
1:53
私のスタイルと呼ばれるこの新しいモデルは
1:56
スタイルガンベースモデルとそれを修正
1:59
スタイルトランスファーだけでなく
2:01
タスクを除く、関連付けることができるすべてのタスク
2:04
私は文字通りそれを言ったようにあなたの顔で
2:06
あなたがどのように見えるかを学び、きれいにすることができます
2:08
絵のスーパーで何でも
2:11
解像度または編集想像絵画
2:13
あなたがいくつかのオブジェクトを持っている場所です
2:15
あなたの顔を覆うショットとあなたは削除します
2:17
写真から被写体を取り出して作る
2:19
あなたの顔があなたのように再び現れます
2:22
ビデオゲームで透明性を有効にする
2:24
壁の画像を超透視
2:27
解決は非常に困難です
2:29
多くに一般化しようとするときのタスク
2:31
さまざまな顔ですが、あなたがいるときははるかに簡単です
2:33
ここでの目標は 1 人に焦点を当てることです。
2:36
非常に低解像度の画像を撮影し、
2:38
高解像度のものにアップスケールするので、
2:41
あなたは基本的にこれがぼやけた画像を持っています
2:43
あなた自身の、そしてあなたはそれを見せようとします
2:46
このように、これら2つの方法を見ることができます
2:48
アプリケーションは非常に困難です
2:50
を理解する必要があるため、
2:52
大きなギャップを埋めるために、または
2:55
ピクセルを追加して顔をシャープに見せる
2:57
モデルは基本的に両方でなければなりません
2:59
あなたのとても親しい友人であり、素晴らしい
3:02
必要なときに同時にアーティスト
3:04
あなたの顔がどのように見えるかを知っています
3:06
角度だけでなく、それを描くことができます
3:08
現実的に、私はいつもそうします
3:11
ベストフレンドになるためにできること
3:13
私が絵を描いていることを忘れる可能性があります
3:15
あなたの顔の正確なバージョン
3:17
良い結果が欲しい
3:19
レベルなのでこのスタイルのガンベースをとります
3:22
の膨大な一般データセットで訓練する
3:24
何千人も何百人も
3:26
あなた自身の写真 私のスタイルは学びます
3:29
あなたの顔に固有のコード化された空間
3:32
基本的に含まれているであなたを見つけます
3:35
すべての顔の表現となる
3:37
モデルをプッシュして集中するように再トレーニング
3:39
あなたのさまざまな機能
3:42
不完全または失敗した餌を与えることができます
3:44
自分の写真を撮り、修正を依頼する
3:46
それが必要とすることはあなたにとってどれほどクールか
3:49
自分の画像が多いですが、
3:52
100枚の写真は大切な日を意味します
3:54
外で友達や携帯電話と一緒に
3:56
よりもはるかに優れた結果をもたらします。
3:58
に一般化しようとする一般モデル
4:00
誰もがそれもはるかに安いです
4:02
フォトショップの専門家を雇い、
4:05
将来のすべての写真を編集するように依頼する
4:08
この種のモデルがどのように機能するかを見ることができます
4:10
有名人や
4:12
インスタグラムの写真が多い方
4:15
誰かがそれらを使用してモデルをトレーニングできます
4:17
そして基本的に超現実的なものを作成します
4:19
妥協する自分の写真
4:21
これが私がよく言う理由です
4:24
私たちはもう目に見えるものを信頼することはできません
4:26
特にインターネットではやめましょう
4:29
考えられるすべての問題について考える
4:31
それは現実世界にもあります
4:33
それでも拡張現実メガネ
4:36
結果は素晴らしく、多くの
4:38
私たちが以前に見たものよりも良い
4:40
100個しか必要ないことを考えると
4:43
何時間もの写真ではなく、自分の写真
4:45
年上のディープフェイスのビデオ撮影と
4:48
それらよりもアーティファクトがはるかに少ない
4:50
より少ない画像を必要とし、
4:53
単一のタスクとvoiraこれが私の方法です
4:57
Google Research から新しいモデルのスタイルを設定する
4:59
テルアビブ大学は
5:01
イメージ・ペインティング・イメージ・スーパーを行う
5:04
を使用した解像度と画像編集
5:06
単一のアーキテクチャとトレーニング スキーム
5:09
他のアプローチと比較して
5:11
代わりに人に焦点を当てます
5:13
それをはるかに行うタスク自体
5:16
正確で現実的で一般化可能
5:18
このビデオを楽しんでいただければ幸いです。
5:21
あなたがこれについてどう思うか知ってください
5:22
好むと好まざるとにかかわらず、よりシンプルなフォーマット
5:25
もちろん、これはこれの概要にすぎません
5:27
新しい紙と私は強くお勧めします
5:29
より良いために論文を読む
5:31
トレーニングスキームの理解
5:33
そしてモデルは来週お会いしましょう
5:35
別の素晴らしい紙で
[音楽]