Transformer・LLM
更新日:2025年12月18日
Transformerアーキテクチャと大規模言語モデルに関する論文。Attention機構、事前学習、RLHF、プロンプト技術など。
1. 論文一覧
本カテゴリには12本の論文が含まれる。各論文のタイトルをクリックすると、詳細な概要ページに遷移する。
Table 1. Transformer・LLMの論文一覧(年代順)
| 年 | 論文 |
|---|---|
| 2017 | Attention Is All You Need |
| 2017 | Mixture of Experts |
| 2018 | BERT |
| 2019 | GPT-2 |
| 2020 | GPT-3 |
| 2020 | Scaling Laws |
| 2020 | RAG |
| 2022 | InstructGPT |
| 2022 | Constitutional AI |
| 2022 | Chain-of-Thought |
| 2023 | LLaMA |
| 2024 | DeepSeek-V3 |
2. 他のカテゴリ
他のカテゴリの論文も参照できる。左メニューまたは以下のリンクから選択する。
Table 2. カテゴリ一覧
| カテゴリ | 論文数 |
|---|---|
| ビジョン | 4 |
| 生成モデル | 4 |
| 強化学習 | 4 |
| 古典・基盤 | 6 |
参考・免責事項
本ページの情報は2025年12月時点のものである。論文の解釈は筆者の理解に基づくものであり、正確な内容は原著論文を参照されたい。
本ページの情報は2025年12月時点のものである。論文の解釈は筆者の理解に基づくものであり、正確な内容は原著論文を参照されたい。