Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Keisuke Hosaka
PDF, PPTX
1,876 views
Generative adversarial nets
Generative adversarial netsの原論文+2015の改良 についての紹介です。
Data & Analytics
◦
Related topics:
Deep Learning
•
Read more
5
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 46
2
/ 46
3
/ 46
4
/ 46
5
/ 46
6
/ 46
7
/ 46
8
/ 46
9
/ 46
10
/ 46
11
/ 46
12
/ 46
13
/ 46
14
/ 46
15
/ 46
16
/ 46
17
/ 46
18
/ 46
19
/ 46
20
/ 46
21
/ 46
22
/ 46
23
/ 46
24
/ 46
25
/ 46
26
/ 46
27
/ 46
28
/ 46
29
/ 46
30
/ 46
31
/ 46
32
/ 46
33
/ 46
34
/ 46
35
/ 46
36
/ 46
37
/ 46
38
/ 46
39
/ 46
40
/ 46
41
/ 46
42
/ 46
43
/ 46
44
/ 46
45
/ 46
46
/ 46
More Related Content
PDF
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
PDF
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
by
Masahiro Suzuki
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
PDF
Deep learning入門
by
magoroku Yamamoto
PDF
Rainbow
by
Takahiro Yoshinaga
PDF
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
PDF
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
by
Masahiro Suzuki
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
Deep learning入門
by
magoroku Yamamoto
Rainbow
by
Takahiro Yoshinaga
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
What's hot
PDF
Building High-level Features Using Large Scale Unsupervised Learning
by
Takuya Minagawa
PPTX
Image net classification with Deep Convolutional Neural Networks
by
Shingo Horiuchi
PDF
bigdata2012ml okanohara
by
Preferred Networks
PPTX
Densely Connected Convolutional Networks
by
harmonylab
PPTX
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
by
Deep Learning JP
PDF
グラフデータ分析 入門編
by
順也 山口
PDF
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
PDF
「世界モデル」と関連研究について
by
Masahiro Suzuki
PDF
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
PDF
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
PDF
論文紹介:Dueling network architectures for deep reinforcement learning
by
Kazuki Adachi
PPTX
Res netと派生研究の紹介
by
masataka nishimori
PPTX
MIRU2014 tutorial deeplearning
by
Takayoshi Yamashita
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PDF
Deep learningの概要とドメインモデルの変遷
by
Taiga Nomi
PDF
Learning Convolutional Neural Networks for Graphs
by
Takuya Akiba
PDF
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
PDF
Deep Learningと画像認識 ~歴史・理論・実践~
by
nlab_utokyo
PPTX
NIPS2015読み会: Ladder Networks
by
Eiichi Matsumoto
PDF
20160329.dnn講演
by
Hayaru SHOUNO
Building High-level Features Using Large Scale Unsupervised Learning
by
Takuya Minagawa
Image net classification with Deep Convolutional Neural Networks
by
Shingo Horiuchi
bigdata2012ml okanohara
by
Preferred Networks
Densely Connected Convolutional Networks
by
harmonylab
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
by
Deep Learning JP
グラフデータ分析 入門編
by
順也 山口
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
「世界モデル」と関連研究について
by
Masahiro Suzuki
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
論文紹介:Dueling network architectures for deep reinforcement learning
by
Kazuki Adachi
Res netと派生研究の紹介
by
masataka nishimori
MIRU2014 tutorial deeplearning
by
Takayoshi Yamashita
Deep Learningの基礎と応用
by
Seiya Tokui
Deep learningの概要とドメインモデルの変遷
by
Taiga Nomi
Learning Convolutional Neural Networks for Graphs
by
Takuya Akiba
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
Deep Learningと画像認識 ~歴史・理論・実践~
by
nlab_utokyo
NIPS2015読み会: Ladder Networks
by
Eiichi Matsumoto
20160329.dnn講演
by
Hayaru SHOUNO
Viewers also liked
PDF
Robustness of classifiers_from_adversarial_to_random_noise
by
Keisuke Hosaka
PDF
BUGSを使うメリット
by
. .
PDF
Probabilistic Graphical Models 輪読会 #1
by
Takuma Yagi
PDF
From mcmc to sgnht
by
Keisuke Hosaka
PDF
PRML8章
by
弘毅 露崎
PDF
Hyperoptとその周辺について
by
Keisuke Hosaka
Robustness of classifiers_from_adversarial_to_random_noise
by
Keisuke Hosaka
BUGSを使うメリット
by
. .
Probabilistic Graphical Models 輪読会 #1
by
Takuma Yagi
From mcmc to sgnht
by
Keisuke Hosaka
PRML8章
by
弘毅 露崎
Hyperoptとその周辺について
by
Keisuke Hosaka
Similar to Generative adversarial nets
PPTX
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
PDF
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
by
Koichi Hamada
PDF
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
PDF
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
by
Koichi Hamada
PPTX
Thesis introduction
by
KenichiYma
PDF
[DL Hacks]Self-Attention Generative Adversarial Networks
by
Deep Learning JP
PDF
敵対的生成ネットワーク(GAN)
by
cvpaper. challenge
PDF
Deep Learning 20章 輪講会 資料
by
sorashido
PDF
Generative Adversarial Networks (GAN) @ NIPS2017
by
Koichi Hamada
PDF
[DL輪読会] Learning from Simulated and Unsupervised Images through Adversarial T...
by
Deep Learning JP
PDF
[DL輪読会]EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning
by
Deep Learning JP
PDF
Generative adversarial networks
by
Shuyo Nakatani
PPTX
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
by
Deep Learning JP
PDF
Introduction to GAN model
by
WEBFARMER. ltd.
PDF
GANの基本
by
sohtakannan
PPTX
HoloGAN: Unsupervised Learning of 3D Representations from Natural Images
by
Kento Doi
PPTX
GANの簡単な理解から正しい理解まで
by
Kazuma Komiya
PDF
第1回NIPS読み会・関西発表資料
by
Takashi Shinozaki
PDF
第1回NIPS読み会・関西発表資料 篠崎
by
shinozaki_takashi
PPTX
0728 論文紹介第三回
by
Kohei Wakamatsu
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
by
Koichi Hamada
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
by
Koichi Hamada
Thesis introduction
by
KenichiYma
[DL Hacks]Self-Attention Generative Adversarial Networks
by
Deep Learning JP
敵対的生成ネットワーク(GAN)
by
cvpaper. challenge
Deep Learning 20章 輪講会 資料
by
sorashido
Generative Adversarial Networks (GAN) @ NIPS2017
by
Koichi Hamada
[DL輪読会] Learning from Simulated and Unsupervised Images through Adversarial T...
by
Deep Learning JP
[DL輪読会]EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning
by
Deep Learning JP
Generative adversarial networks
by
Shuyo Nakatani
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
by
Deep Learning JP
Introduction to GAN model
by
WEBFARMER. ltd.
GANの基本
by
sohtakannan
HoloGAN: Unsupervised Learning of 3D Representations from Natural Images
by
Kento Doi
GANの簡単な理解から正しい理解まで
by
Kazuma Komiya
第1回NIPS読み会・関西発表資料
by
Takashi Shinozaki
第1回NIPS読み会・関西発表資料 篠崎
by
shinozaki_takashi
0728 論文紹介第三回
by
Kohei Wakamatsu
Generative adversarial nets
1.
Generative Adversarial Nets hskksk
@ 2016/10/21
2.
アジェンダ • サマリ • Generative
Adversarial Nets • DCGANs 1
3.
今⽇のお話「Generative Adversarial Nets」 2 Deep
Neural Network を Adversarial Learning (敵対的学習)で 学習する 本物 偽物
4.
Adversarial learning • 2つのモデルが戦うことで学習を進める教師なし学習フレームワーク –
本物か偽物かを識別するモデル – 偽物を作り出すモデル 3
5.
Deep LearningでAdversarial Learningをやると •
ベクトルから画像が⽣成できる • ベクトル同⼠の演算について⾯⽩い性質が成り⽴つ – Word2Vecなどと同じような概念の⾜し算引き算ができる • 表情やアクセサリー、顔の⾓度など – 定量的なものがベクトル空間内で線形に並ぶ • 顔の⾓度など 4
6.
こんな画像や 5 Radford et al,
ICLR 2016
7.
こんな画像が作れる 6 すぎゃーんメモ(http://memo.sugyan.com/entry/2016/10/12/084751)
8.
⾃分の動機 • DNN界隈のことをもっと勉強する! • ⽅向性が⾯⽩い –
ランダムベクトルから画像が⽣成できるのが⾯⽩い – Adversarial learningという考え⽅が⾯⽩い 7
9.
注意! この内容はGAN界隈の話としては古いです。 8
10.
紹介する論⽂ 1. Goodfellow, I.
J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., … Bengio, Y. (n.d.). Generative Adversarial Nets. 2. Radford, A., Metz, L., & Chintala, S. (2016). UNSUPERVISED R EPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL, 1– 16. http://doi.org/10.1051/0004-6361/201527329 9
11.
事前知識:識別モデルと⽣成モデル • 識別モデル – あるサンプルがどのクラスに属するかを判別できる –
判別関数を作る – 同じクラスの別のサンプルを作ることはできない – Eg: 判別分析、SVM • ⽣成モデル – 観測データの⺟集団分布を推定する – どのクラスに属するかの判別もできる – ⺟集団分布に従うサンプルを⽣成できる – Eg: LDA、線形回帰、RBM 10
12.
GANsの背景 • DNNを⽣成モデルとして使う試みは結構ある – Deep
Boltzmann machine – Variational Sampling – Iterative forward diffusion process – Recurrent network – Deconvolution network ※網羅性はありませんし粒度もおかしいかもしれません (次の勉強のインデックスとして活⽤) • いろいろ問題点がある 11
13.
Generative DNN modelの問題点 Multi
layer 系 Boltzmann Machine系 Autoencoder系
14.
GANを使うと • Intractableな確率分布からサンプリングするのに必要な – MCMC –
変分近似 をなくせる • 計算量コストが⼩さくなる • 近似が不要になる 13
15.
Adversarial Learning • 2つのモデルを作って競わせることにより、データの分布を学習させる教師なし学習フ レームワーク •
贋作師(generator): 本物のデータと⾒分けがつかないサンプルを作る ⽣成モデル • 鑑定⼠(discriminator): 本物のデータと偽物のデータを識別する 識別モデル • 贋作師は鑑定⼠の識別結果を元にしてデータの分布を学習していく 14 本物 偽物
16.
Generative Adversarial Nets •
贋作師と鑑定⼠をいずれもDNNとしてAdversarial Learningを⾏うフ レームワーク • 贋作師:乱数ベクトルを⼊⼒として、画像を出⼒するDNN • 鑑定⼠:画像を⼊⼒として、画像が本物である確率を出⼒するDNN 15 https://medium.com/@awjuliani/generative-adversarial-networks-explained-with-a-classic-spongebob-squarepants-episode-54deab2fce39#.8bhybd8oa
17.
Adversarial Learningを数式で追う 定義 • 本物のデータの確率分布 •
贋作師が作る偽造データの分布 • は以下の2つで間接的にモデル化する – モデルへの⼊⼒を作る事前分布 – zをデータの空間に写像する関数 • 鑑定⼠の判別関数 – ⼊⼒が本物である確率を返す関数 ⽬的関数 16 Generator Discriminator z x p p Generatorのイメージ
18.
Adversarial Learningを数式で追う 17 本物を本物と識別する確率 (の対数) 偽物を偽物と識別する確率 (の対数) • 鑑定⼠Dから⾒ると、本物、偽物の⼆値判別における尤度最⼤化 •
贋作師Gから⾒ると本物と⾒破られる確率の最⼩化
19.
Adversarial Learningのアルゴリズム 18 鑑定士の学習ループ 贋作師の学習ループ ある時点の贋作師にoverfitしないようなkの設定が重要
20.
Adversarial Learningによる学習のイメージ 19
21.
この問題の最適解は? • この問題の最適解は であることが⽰せる •
証明のアウトライン 1. 固定された贋作師Gに対して、最適な鑑定⼠Dが となることを⽰す 2. Gに関する⽬的関数C(G)は以下のように書ける 3. KLやJSDは0以上なのでKL=JSD=0が最適解。この時 20
22.
この問題の最適解は? • この問題の最適解は であることが⽰せる •
証明のアウトライン 1. 固定された贋作師Gに対して、最適な鑑定⼠Dが となることを⽰す 2. Gに関する⽬的関数C(G)は以下のように書ける 3. KLやJSDは0以上なのでKL=JSD=0が最適解。この時 21 贋作師は本物と区別がつかないモノを作 れるようになる!!
23.
この問題の最適解は? • この問題の最適解は であることが⽰せる •
証明のアウトライン 1. 固定された贋作師Gに対して、最適な鑑定⼠Dが となることを⽰す 2. Gに関する⽬的関数C(G)は以下のように書ける 3. KLやJSDは0以上なのでKL=JSD=0が最適解。この時 22 現実世界ではとても嫌な結論
24.
実験条件 23 • データ – MNIST –
TFD(Tronto Face Database) – CIFAR-10 • 学習条件 – GeneratorではReLUとsigmoid activationを使⽤ – Discriminatorではmaxout activationを使⽤ – Discriminator学習でDropoutを使⽤ – 学習にはmomentum⼊りのminibatch SGDを使⽤
25.
実験結果:平均対数尤度の⽐較 24 • 他のモデルと⽐べてGANの対数尤度が⼤きい • データに対する当てはまりが良いモデルであると⾔える –
尤度=データの元でのモデルの尤もらしさ
26.
実験結果:⽣成された画像 25
27.
26 あれから2年がたった
28.
画像⽣成アルゴリズム界隈でも進展があった 27 • Iterative forward
diffusion process • Laplacian pyramid extention to GAN • Recurrent network approach • Deconvolution network approach • Deep Convolutional Generative Adversarial Network ← これ以降で紹介 ※網羅性はありませんし粒度もおかしいかもしれません (次の勉強のインデックスとして活用)
29.
28 • テクニックの進歩により⽣成できる画像の質はかなり向上 2014 2016
30.
DCGAN(deep convolutional generative
adversarial networks) 29 • Adversarial learning + Deep Convolutional NN (+ stabilization knowledge) – Knowledgeにより⾼解像度画像でdeepなモデルが学習可能になった knowledge 内容 All convolutional net • Deterministic spatial pooling function(maxpooling)をstrided convolutionに 置き換える • ⾃分⾃⾝の空間的なdownsamplingができるようになる Global average pooling • Eliminating fully connected layers on top of convolutional features • Increase model stability • Hurt convergence speed Batch normalization • Inputをnormalizeする • 初期化が良くない時に学習がうまくいかないのを防ぐ • Deepなモデルでもgradientが届くようになる • generatorから得られるサンプルがすべて同じになるのを防ぐ GeneratorでReLU Discriminatorで Leaky ReLU • GeneratorでBounded activationを使うことで「learn more quickly to saturate and cover the color space」 • Discriminatorでleaky ReLUを使うことで⾼解像度モデルがうまくいく
31.
Architecture guidelines for
stable DCGANs 30
32.
実験条件 31 • データ – Large-scale
Scene Understanding (LSUN) – Imagenet-1k – Newly assembled Faces • 学習条件 – ピクセルの[-1,1]へのスケーリング – Mini-batch SGDで学習(size=128) – Initial weights ~ N(0, 0.02) – LeakyReLUのleakのslopeは0.2 – Adam optimizer • Learning rate = 0.0002 • Momentum term β1 = 0.5
33.
事前確認:LSUN bedroomを⽤いたMemorizationの確認 32 • training画像を1つ1つ記憶してしまえば ⾼品質な画像⽣成が出来てしまう (Memorization)。 •
LSUN bedroomのデータセットを⽤いて、 そうなっていないことを確認。 – 経験的には⼩さい学習率のMini- batch SGDで学習でMemorizationが 起こったことはない – 収束後のモデルからのサンプル画像 にunder-fittingが⾒られる
34.
実験1:DCGANをFeature Extractorとして使ってみる 33 • 実験概要 –
DCGANをFeature Extractorとして使い、得られたFeatureを使って線形判別 器を作って精度を⾒る – 教師なし学習の質の評価の⼀般的な⽅法 • 実験詳細 – CIFAR-10、SVHNを分類 – DCGANをImagenet-1kを使って学習 – Discriminatorの全layerのfeautreを4×4にmaxpoolingし、flatteningして featureとする(28672features) – L2-SVMで分類モデルを作る
35.
実験1:CIFAR-10分類結果 34 • Exemplar CNN以外には勝っている •
少ないfeature数でも⾼い精度が出る • DiscriminatorはCIFAR-10を使わず学習しており、ドメインによらないFeature Extractorが作れている
36.
実験1:SVHN分類結果 35 • State of
the artを達成 • labelのないデータを活⽤する別の⽅法(SWWAE)よりも良い • Discriminatorと同じ構造のCNNを教師ありで学習するよりも良い精度(!)
37.
実験2:潜在空間を覗いてみる 36 • 実験概要 – 潜在空間の構造(zからG(z)へのマッピング)を理解するために、zのある直線 上の点に対するG(z)を並べてみてみる。 –
この時G(z)が急激に変化するようならmemorizationが起こっている – 緩やかに変化するならモデルが画像の性質を学習していると⾔える
38.
実験2:結果 37 • どの例も画像が緩やかに変化している • さらに、どれもbedroomの画像として 成り⽴っている
39.
実験2:結果 38 照明が 窓に テレビが 窓に
40.
実験2:結果 39 この辺の画像もちゃんとbedroomしてる
41.
実験3:z同⼠の加減算をしてみる 40 • 実験概要 – NLPの⽂脈でWord2Vecが実現した以下のような関係と同じことができるか調べて⾒る •
eg: Vector(“King”) – Vector(“Man”) + Vector(“Woman”) 〜 Vector(“Queen”) • 実験詳細 – ある画像に対応するベクトルの加減算で得られるベクトルがどんな画像に対応するか を調べた – 1サンプルの加減算だと結果が不安定だったため、3つの画像の平均を⾏った – 顔画像について、以下のことができるかを調べた • 概念の加減算 • オブジェクトの加減算
42.
実験3:結果(性別、表情の加減算) 41 真ん中:加減算結果のZに対応する画像 周り:真ん中のZにノイズを加えた場合
43.
実験3:結果(性別、サングラスの加減算) 42
44.
実験3:結果(pixel空間での加減算) 43 • Zの空間で加減算すればうまくいくが、pixel空間で加減算すると全くうま くいかない
45.
実験3:結果(性別、顔の向きの加算) 44 • 右向きの⼥性、左向きの男性のZ の間を線形補間して得られたZの 画像は、中間的な顔の向きを 持っている • 顔の向きという1次元的な概念 がZの空間でも1次元的に埋め込 まれている
46.
まとめ 45 • Adversarial Learningという考え⽅により、⽣成モデルの学習が出来る –
変分近似やMCMCなどが不要で使い易い⽣成モデルが作れる • Adversarial Learning + Deep Convolutional NN でいろいろできるようになる – ランダムなベクトルから画像が⽣成出来る – ベクトルの演算が画像上の概念の演算になっている
Download