GAN

更新日:2025年12月18日

正式タイトル:Generative Adversarial Networks

著者:Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville, Bengio

発表年:2014年

掲載:NeurIPS 2014

所属:Université de Montréal

原著論文:arXiv:1406.2661

1. 概要

GAN(Generative Adversarial Network)は、生成器(Generator)と識別器(Discriminator)の2つのネットワークを敵対的に学習させることで、高品質なデータを生成する手法である。生成モデル研究の新時代を開き、StyleGAN、CycleGAN、Pix2Pixなど多くの派生手法を生んだ。

2. 研究の背景

生成モデルの学習は、複雑な確率分布の推定を必要とし、計算的に困難だった。VAEなどの手法は存在したが、生成される画像はぼやけており品質に限界があった。尤度に基づかない新しい学習パラダイムが求められていた。

3. 提案手法

生成器Gはノイズzから偽データG(z)を生成し、識別器Dは入力が本物か偽物かを判別する。Gは識別器を騙そうとし、Dは本物と偽物を見分けようとする。このミニマックスゲーム min_G max_D V(D,G) の結果、GはPデータに近いデータを生成できるようになる。学習が収束すると、Dは本物と偽物を区別できなくなる(D(x)=0.5)。

4. 実験結果

MNIST、Toronto Face Database、CIFAR-10で、従来の生成モデルより視覚的に高品質な画像を生成できることを示した。定量的評価でも、Parzen窓推定に基づく尤度で優れた性能を達成した。

5. 意義と影響

GANは生成モデル研究の新時代を開いた。StyleGAN、BigGAN、CycleGAN、Pix2Pix、SRGAN等、多くの派生手法が生まれた。画像生成、画像変換、超解像、データ拡張など広範な応用を可能にした。拡散モデルが台頭するまで、画像生成の主要な手法だった。

6. 関連論文

論文関係
VAE同時期の生成モデル
DDPM後継の生成モデル
参考文献
[1] Goodfellow, I., et al. (2014). Generative Adversarial Networks. NeurIPS 2014.
[2] arXiv:1406.2661

免責事項
本ページの情報は筆者の理解に基づくものである。正確な内容は原著論文を参照されたい。

関連書籍