paint-brush
世界で最も強力なディープフェイク モデルが Google によってリリースされました@whatsai
7,072 測定値
7,072 測定値

世界で最も強力なディープフェイク モデルが Google によってリリースされました

Louis Bouchard4m2022/04/28
Read on Terminal Reader
Read this story w/o Javascript

長すぎる; 読むには

MyStyle は、基本的に何でもできる非常に強力なディープフェイク モデルです。任意の人物の写真を 100 枚撮影すると、そのペルソナがエンコードされ、必要なリアルな写真を修正、編集、または作成できます。私に言わせれば、特に結果を見ると、これは驚くべきことであると同時に恐ろしいことでもあります。ビデオを見て、より多くの結果を確認し、モデルがどのように機能するかを理解してください! MyStyle: パーソナライズされたジェネレーティブ プライアー。 arXiv プレプリント arXIV:2203.17272。

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - 世界で最も強力なディープフェイク モデルが Google によってリリースされました
Louis Bouchard HackerNoon profile picture

Google Research とテルアビブ大学によるこの新しいモデルは素晴らしいものです。 MyStyle は、基本的に何でもできる非常に強力なディープフェイク モデルです。

任意の人物の写真を 100 枚撮影すると、そのペルソナがエンコードされ、必要なリアルな写真を修正、編集、または作成できます。

私に言わせれば、特に結果を見ると、これは驚くべきことであると同時に恐ろしいことでもあります。ビデオを見て、より多くの結果を確認し、モデルがどのように機能するかを理解してください!

ビデオを見る

参考文献

►記事全文を読む: https://www.louisbouchard.ai/mystyle/
►Nitzan, Y., Aberman, K., He, Q., Liba, O., Yarom, M., Gandelsman, Y.,
Mosseri, I.、Pritch, Y.、Cohen-Or, D.、2022 年。
ジェネレーティブ プライアー。 arXiv プレプリント arXiv:2203.17272.
►プロジェクトリンク: https://mystyle-personalized-prior.github.io/
►コード (近日公開予定): https://mystyle-personalized-prior.github.io/
►マイ ニュースレター (毎週メールで説明される新しい AI アプリケーション!): https://www.louisbouchard.ai/newsletter/

ビデオトランスクリプト

0:00

Google Researchによるこの新しいモデルと

0:02

テルアビブ大学は素晴らしいです

0:05

それは非常に強力なディープとして見ることができます

0:07

何でもできる偽物

0:10

任意の人の写真とあなたはその

0:12

編集または作成を修正するためにエンコードされた人員

0:15

あなたが望む現実的な絵はこれです

0:18

あなたが私に尋ねると、驚くべきことと恐ろしいことの両方

0:20

特に結果を見ると

0:23

彼らを賞賛するのに少し時間を取ってください

0:36

[音楽]

0:50

モデルは事前にトレーニングされた

0:52

私がカバーしたスタイルガンアーキテクチャ

0:54

多数のビデオで、私は入りません

0:56

このネットワークの詳細はすぐに星を付けます

0:58

銃は画像を取得し、それを使用してエンコードします

1:01

畳み込みニューラル ネットワークとは

1:03

次の場合に同じ画像を再生成するように訓練された

1:05

これはあなたにとって別の言語のように聞こえます

1:08

ビデオを見るのに2分かかります

1:10

カバーリングスタイルガンを作りました

1:12

それからあなたがそれをよく訓練したとき

1:15

多くの人々のビッグデータセット

1:17

画像を直接変換するように教える

1:20

で説明したように、エンコードされたスペースから

1:22

私の動画なので、フェードする必要はありません

1:24

画像はもう簡単に遊べます

1:27

私たちがジェネレーターと呼んでいるのは、これが意味するものです

1:29

全体を変えるように教えることができます

1:31

スタイル転送のような画像

1:33

たとえば、アプリケーション

1:35

リアルな写真を撮ってエンコードする

1:38

またはエンコーディングから直接開始し、

1:40

デジタルのようなアニメに変換する

1:43

適切にトレーニングおよび操作された画像

1:45

一部のローカルのみを変更することもできます

1:48

髪の色などの特徴や

1:50

あなたをあなたらしく見せるためのその他の編集

1:52

一番

1:53

私のスタイルと呼ばれるこの新しいモデルは

1:56

スタイルガンベースモデルとそれを修正

1:59

スタイルトランスファーだけでなく

2:01

タスクを除く、関連付けることができるすべてのタスク

2:04

私は文字通りそれを言ったようにあなたの顔で

2:06

あなたがどのように見えるかを学び、きれいにすることができます

2:08

絵のスーパーで何でも

2:11

解像度または編集想像絵画

2:13

あなたがいくつかのオブジェクトを持っている場所です

2:15

あなたの顔を覆うショットとあなたは削除します

2:17

写真から被写体を取り出して作る

2:19

あなたの顔があなたのように再び現れます

2:22

ビデオゲームで透明性を有効にする

2:24

壁の画像を超透視

2:27

解決は非常に困難です

2:29

多くに一般化しようとするときのタスク

2:31

さまざまな顔ですが、あなたがいるときははるかに簡単です

2:33

ここでの目標は 1 人に焦点を当てることです。

2:36

非常に低解像度の画像を撮影し、

2:38

高解像度のものにアップスケールするので、

2:41

あなたは基本的にこれがぼやけた画像を持っています

2:43

あなた自身の、そしてあなたはそれを見せようとします

2:46

このように、これら2つの方法を見ることができます

2:48

アプリケーションは非常に困難です

2:50

を理解する必要があるため、

2:52

大きなギャップを埋めるために、または

2:55

ピクセルを追加して顔をシャープに見せる

2:57

モデルは基本的に両方でなければなりません

2:59

あなたのとても親しい友人であり、素晴らしい

3:02

必要なときに同時にアーティスト

3:04

あなたの顔がどのように見えるかを知っています

3:06

角度だけでなく、それを描くことができます

3:08

現実的に、私はいつもそうします

3:11

ベストフレンドになるためにできること

3:13

私が絵を描いていることを忘れる可能性があります

3:15

あなたの顔の正確なバージョン

3:17

良い結果が欲しい

3:19

レベルなのでこのスタイルのガンベースをとります

3:22

の膨大な一般データセットで訓練する

3:24

何千人も何百人も

3:26

あなた自身の写真 私のスタイルは学びます

3:29

あなたの顔に固有のコード化された空間

3:32

基本的に含まれているであなたを見つけます

3:35

すべての顔の表現となる

3:37

モデルをプッシュして集中するように再トレーニング

3:39

あなたのさまざまな機能

3:42

不完全または失敗した餌を与えることができます

3:44

自分の写真を撮り、修正を依頼する

3:46

それが必要とすることはあなたにとってどれほどクールか

3:49

自分の画像が多いですが、

3:52

100枚の写真は大切な日を意味します

3:54

外で友達や携帯電話と一緒に

3:56

よりもはるかに優れた結果をもたらします。

3:58

に一般化しようとする一般モデル

4:00

誰もがそれもはるかに安いです

4:02

フォトショップの専門家を雇い、

4:05

将来のすべての写真を編集するように依頼する

4:08

この種のモデルがどのように機能するかを見ることができます

4:10

有名人や

4:12

インスタグラムの写真が多い方

4:15

誰かがそれらを使用してモデルをトレーニングできます

4:17

そして基本的に超現実的なものを作成します

4:19

妥協する自分の写真

4:21

これが私がよく言う理由です

4:24

私たちはもう目に見えるものを信頼することはできません

4:26

特にインターネットではやめましょう

4:29

考えられるすべての問題について考える

4:31

それは現実世界にもあります

4:33

それでも拡張現実メガネ

4:36

結果は素晴らしく、多くの

4:38

私たちが以前に見たものよりも良い

4:40

100個しか必要ないことを考えると

4:43

何時間もの写真ではなく、自分の写真

4:45

年上のディープフェイスのビデオ撮影と

4:48

それらよりもアーティファクトがはるかに少ない

4:50

より少ない画像を必要とし、

4:53

単一のタスクとvoiraこれが私の方法です

4:57

Google Research から新しいモデルのスタイルを設定する

4:59

テルアビブ大学は

5:01

イメージ・ペインティング・イメージ・スーパーを行う

5:04

を使用した解像度と画像編集

5:06

単一のアーキテクチャとトレーニング スキーム

5:09

他のアプローチと比較して

5:11

代わりに人に焦点を当てます

5:13

それをはるかに行うタスク自体

5:16

正確で現実的で一般化可能

5:18

このビデオを楽しんでいただければ幸いです。

5:21

あなたがこれについてどう思うか知ってください

5:22

好むと好まざるとにかかわらず、よりシンプルなフォーマット

5:25

もちろん、これはこれの概要にすぎません

5:27

新しい紙と私は強くお勧めします

5:29

より良いために論文を読む

5:31

トレーニングスキームの理解

5:33

そしてモデルは来週お会いしましょう

5:35

別の素晴らしい紙で

[音楽]