生成對抗網絡 (GAN) 是深度學習中最有趣、最受歡迎的應用之一。本文列出了 10 篇關于 GAN 的論文,這些論文將為你提供一個很好的對 GAN 的介紹,幫助你理解最先進技術的基礎。
本文選擇的10篇GAN論文包括:
DCGANs
Improved Techniques for Training GANs
Conditional GANs
Progressively Growing GANs
BigGAN
StyleGAN
CycleGAN
Pix2Pix
StackGAN
Generative Adversarial Networks
DCGANs?—?Radford et al.(2015)
我建議你以DCGAN這篇論文來開啟你的GAN之旅。這篇論文展示了卷積層如何與GAN一起使用,并為此提供了一系列架構指南。這篇論文還討論了GAN特征的可視化、潛在空間插值、利用判別器特征來訓練分類器、評估結果等問題。所有這些問題都必然會出現在你的GAN研究中。
總之,DCGAN論文是一篇必讀的GAN論文,因為它以一種非常清晰的方式定義架構,因此很容易從一些代碼開始,并開始形成開發GAN的直覺。
DCGAN模型:具有上采樣卷積層的生成器架構
論文:
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
Alec Radford, Luke Metz, Soumith Chintala
https://arxiv.org/abs/1511.06434
改進GAN訓練的技術——?Salimans et al.(2016)
這篇論文(作者包括Ian Goodfellow)根據上述DCGAN論文中列出的架構指南,提供了一系列建議。這篇論文將幫助你了解GAN不穩定性的最佳假設。此外,本文還提供了許多用于穩定DCGAN訓練的其他機器,包括特征匹配、minibatch識別、歷史平均、單邊標簽平滑和虛擬批標準化。使用這些技巧來構建一個簡單的DCGAN實現是一個很好的練習,有助于更深入地了解GAN。
論文:
Improved Techniques for Training GANs
Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen
https://arxiv.org/abs/1606.03498
Conditional GANs?—?Mirza and Osindero(2014)
這是一篇很好的論文,讀起來很順暢。條件GAN(Conditional GAN)是最先進的GAN之一。論文展示了如何整合數據的類標簽,從而使GAN訓練更加穩定。利用先驗信息對GAN進行調節這樣的概念,在此后的GAN研究中是一個反復出現的主題,對于側重于image-to-image或text-to-image的論文尤其重要。
Conditional GAN架構:除了隨機噪聲向量z之外,類標簽y被連接在一起作為網絡的輸入
論文:
Conditional Generative Adversarial Nets
Mehdi Mirza, Simon Osindero
https://arxiv.org/abs/1411.1784
Progressively Growing GANs—?Karras et al.(2017)
Progressively Growing GAN (PG-GAN)有著驚人的結果,以及對GAN問題的創造性方法,因此也是一篇必讀論文。
這篇GAN論文來自NVIDIA Research,提出以一種漸進增大(progressive growing)的方式訓練GAN,通過使用逐漸增大的GAN網絡(稱為PG-GAN)和精心處理的CelebA-HQ數據集,實現了效果令人驚嘆的生成圖像。作者表示,這種方式不僅穩定了訓練,GAN生成的圖像也是迄今為止質量最好的。
它的關鍵想法是漸進地增大生成器和鑒別器:從低分辨率開始,隨著訓練的進展,添加新的層對越來越精細的細節進行建模。“Progressive Growing”指的是先訓練4x4的網絡,然后訓練8x8,不斷增大,最終達到1024x1024。這既加快了訓練速度,又大大穩定了訓練速度,并且生成的圖像質量非常高。
Progressively Growing GAN的多尺度架構,模型從4×4 逐步增大到1024×1024
論文:
Progressive Growing of GANs for Improved Quality, Stability, and Variation
Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen
https://arxiv.org/abs/1710.10196
BigGAN?—?Brock et al.(2019)
BigGAN模型是基于ImageNet生成圖像質量最高的模型之一。該模型很難在本地機器上實現,而且BigGAN有許多組件,如Self-Attention、Spectral Normalization和帶有投影鑒別器的cGAN,這些組件在各自的論文中都有更好的解釋。不過,這篇論文對構成當前最先進技術水平的基礎論文的思想提供了很好的概述,因此非常值得閱讀。
BigGAN生成的圖像
論文:
Large Scale GAN Training for High Fidelity Natural Image Synthesis
Andrew Brock, Jeff Donahue, Karen Simonyan
https://arxiv.org/abs/1809.11096
StyleGAN?—?Karras et al.(2019)
StyleGAN模型可以說是最先進的,特別是利用了潛在空間控制。該模型借鑒了神經風格遷移中一種稱為自適應實例標準化(AdaIN)的機制來控制潛在空間向量z。映射網絡和AdaIN條件在整個生成器模型中的分布的結合使得很難自己實現一個StyleGAN,但它仍是一篇很好的論文,包含了許多有趣的想法。
StyleGAN架構,允許潛在空間控制
論文:
A Style-Based Generator Architecture for Generative Adversarial Networks
Tero Karras, Samuli Laine, Timo Aila
https://arxiv.org/abs/1812.04948
CycleGAN?—?Zhu et al.(2017)
CycleGAN的論文不同于前面列舉的6篇論文,因為它討論的是image-to-image的轉換問題,而不是隨機向量的圖像合成問題。CycleGAN更具體地處理了沒有成對訓練樣本的image-to-image轉換的情況。然而,由于Cycle-Consistency loss公式的優雅性,以及如何穩定GAN訓練的啟發性,這是一篇很好的論文。CycleGAN有很多很酷的應用,比如超分辨率,風格轉換,例如將馬的圖像變成斑馬。
Cycle Consistency Loss背后的主要想法,一個句子從法語翻譯成英語,再翻譯回法語,應該跟原來的是同一個句子
論文:
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros
https://arxiv.org/abs/1703.10593
Pix2Pix?—?Isola et al.(2016)
Pix2Pix是另一種圖像到圖像轉換的GAN模型。該框架使用成對的訓練樣本,并在GAN模型中使用多種不同的配置。讀這篇論文時,我覺得最有趣部分是關于PatchGAN的討論。PatchGAN通過觀察圖像的70×70的區域來判斷它們是真的還是假的,而不是查看整個圖像。該模型還展示了一個有趣的U-Net風格的生成器架構,以及在生成器模型中使用ResNet風格的skip connections。Pix2Pix有很多很酷的應用,比如將草圖轉換成逼真的照片。
使用成對的訓練樣本進行Image-to-Image轉換
論文:
Image-to-Image Translation with Conditional Adversarial Networks
Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, Alexei A. Efros
https://arxiv.org/abs/1611.07004
StackGAN?—?Zhang et al.(2017)
StackGAN的論文與本列表中的前幾篇論文相比非常不同。它與Conditional GAN和Progressively Growing GANs最為相似。StackGAN模型的工作原理與Progressively Growing GANs相似,因為它可以在多個尺度上工作。StackGAN首先輸出分辨率為64×64的圖像,然后將其作為先驗信息生成一個256×256分辨率的圖像。
StackGAN是從自然語言文本生成圖像。這是通過改變文本嵌入來實現的,以便捕獲視覺特征。這是一篇非常有趣的文章,如果StyleGAN中顯示的潛在空間控制與StackGAN中定義的自然語言接口相結合,想必會非常令人驚訝。
基于文本嵌入的StackGAN多尺度架構背后的想法
論文:
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks
Han Zhang, Tao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas
https://arxiv.org/abs/1612.03242
Generative Adversarial Networks?—?Goodfellow et al.(2014)
Ian Goodfellow的原始GAN論文對任何研究GAN的人來說都是必讀的。這篇論文定義了GAN框架,并討論了“非飽和”損失函數。論文還給出了最優判別器的推導,這是近年來GAN論文中經常出現的一個證明。論文還在MNIST、TFD和CIFAR-10圖像數據集上對GAN的有效性進行了實驗驗證。
論文:
Generative Adversarial Networks
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio
https://arxiv.org/abs/1406.2661
-
GaN
+關注
關注
19文章
1922瀏覽量
73051 -
生成器
+關注
關注
7文章
313瀏覽量
20982 -
數據集
+關注
關注
4文章
1205瀏覽量
24649
原文標題:必讀!生成對抗網絡GAN論文TOP 10
文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論