AI主要論文一覧
更新日:2025年12月18日
本ページでは、AI・機械学習分野において歴史的に重要な論文を厳選して紹介する。Transformerアーキテクチャを提案した「Attention Is All You Need」から、深層学習の基礎となったバックプロパゲーション、画像認識を革新したAlexNet、強化学習の金字塔AlphaGoまで、現代AIの発展に貢献した30の論文を5つのカテゴリに分類して解説する。各論文の概要、意義、後続研究への影響を理解することで、AI技術の発展史を俯瞰できる。
1. 概要
本論文リストは、AI・機械学習分野の研究者・エンジニアが押さえておくべき基礎文献を体系的に整理したものである。以下の5つのカテゴリに分類している。
Table 1. カテゴリ一覧
| カテゴリ | 論文数 | 主なテーマ |
|---|---|---|
| Transformer・LLM | 12 | Attention機構、大規模言語モデル、RLHF、プロンプト技術 |
| ビジョン | 4 | CNN、残差接続、Vision Transformer、マルチモーダル |
| 生成モデル | 4 | GAN、VAE、拡散モデル、画像生成 |
| 強化学習 | 4 | DQN、AlphaGo、方策勾配法 |
| 古典・基盤 | 6 | 誤差逆伝播、LSTM、正則化、最適化 |
2. 論文一覧
左メニューからカテゴリを選択すると、該当カテゴリの論文リストが表示される。各論文のタイトルをクリックすると、詳細な概要ページに遷移する。
Table 2. 全論文一覧(年代順)
| 年 | 論文 | カテゴリ |
|---|---|---|
| 1986 | Backpropagation | 古典 |
| 1997 | LSTM | 古典 |
| 2012 | AlexNet | ビジョン |
| 2013 | VAE | 生成 |
| 2013 | Word2Vec | 古典 |
| 2013 | DQN | 強化学習 |
| 2014 | GAN | 生成 |
| 2014 | Dropout | 古典 |
| 2014 | Adam | 古典 |
| 2015 | ResNet | ビジョン |
| 2015 | Batch Normalization | 古典 |
| 2016 | AlphaGo | 強化学習 |
| 2017 | Attention Is All You Need | Transformer |
| 2017 | AlphaGo Zero | 強化学習 |
| 2017 | PPO | 強化学習 |
| 2017 | Mixture of Experts | Transformer |
| 2018 | BERT | Transformer |
| 2019 | GPT-2 | Transformer |
| 2020 | GPT-3 | Transformer |
| 2020 | Scaling Laws | Transformer |
| 2020 | Vision Transformer | ビジョン |
| 2020 | DDPM | 生成 |
| 2020 | RAG | Transformer |
| 2021 | CLIP | ビジョン |
| 2022 | InstructGPT | Transformer |
| 2022 | Constitutional AI | Transformer |
| 2022 | Chain-of-Thought | Transformer |
| 2022 | Latent Diffusion | 生成 |
| 2023 | LLaMA | Transformer |
| 2024 | DeepSeek-V3 | Transformer |
3. 利用方法
本ページの論文情報は、原著論文へのリンクを含む。各論文の詳細ページでは、以下の情報を提供している。
論文の基本情報(著者、発表年、掲載誌)。研究の背景と動機。提案手法の概要。主要な貢献と後続研究への影響。原著論文へのリンク(arXiv、Nature等)。
参考・免責事項
本ページの情報は2025年12月時点のものである。論文の解釈は筆者の理解に基づくものであり、正確な内容は原著論文を参照されたい。
本ページの情報は2025年12月時点のものである。論文の解釈は筆者の理解に基づくものであり、正確な内容は原著論文を参照されたい。