知識マップ

AI・機械学習・ディープラーニングの全体像と関連性
初心者

覚えることが多すぎて、どれがどう繋がっているのか分からなくなってきました…。全体像を見せてください!

専門家

いい質問だね!ここではAI全体の俯瞰図から各分野の詳細な関係まで、マップ形式で整理するよ。「この技術はどこに位置するのか」が一目で分かるようにしよう。

🗺️ AI全体俯瞰マップ
人工知能(AI) ルールベースAI(第1〜2次ブーム) 機械学習(第3次ブーム) 探索・推論 エキスパートシステム 教師あり学習 教師なし学習 強化学習 回帰(線形・ロジスティック) 分類(SVM・決定木…) クラスタリング 次元削減 Q学習・方策勾配法 ニューラルネットワーク ディープラーニング(深層学習) CNN(畳み込み) RNN(再帰型) Transformer AlexNet / VGG / ResNet GoogLeNet / EfficientNet LSTM / GRU / BiRNN Seq2Seq / Attention BERT / GPT / T5 LLaMA / Gemini + アンサンブル学習(バギング・ブースティング) ← 教師あり学習のモデル統合テクニック
AI全体の構造 — ルールベースから機械学習・ディープラーニングへ
🔀 機械学習アルゴリズム分類マップ
教師あり学習 回帰 線形回帰 ロジスティック回帰 分類 決定木 SVM k近傍法(k-NN) ナイーブベイズ 教師なし学習 クラスタリング K-means 階層的クラスタリング 次元削減 PCA(主成分分析) t-SNE 強化学習 Q学習 DQN(深層Q) 方策勾配法 Actor-Critic / A3C アンサンブル学習 教師あり学習のモデル統合テクニック バギング ランダムフォレスト ブースティング AdaBoost XGBoost LightGBM ニューラルネットワーク → ディープラーニングへ ニューラルネットワーク(NN) CNN(畳み込み) 画像認識・物体検出 LeNet → AlexNet → VGG → GoogLeNet → ResNet → EfficientNet RNN(再帰型) 系列データ・時系列 RNN → LSTM → GRU BiRNN → Seq2Seq → Attention Transformer 自然言語・マルチモーダル Self-Attention → Multi-Head BERT / GPT / T5 Attention発展 生成モデル VAE / GAN / 拡散モデル 物体検出 R-CNN / YOLO / SSD 大規模言語モデル GPT-3 / GPT-4 / LLaMA
機械学習の全手法分類 — 古典的手法からディープラーニングへ
🧬 ニューラルネットワーク進化系譜
専門家

ニューラルネットワークは1943年の形式ニューロンから始まり、パーセプトロン → 多層化 → CNN/RNN/Transformerと枝分かれしていったよ。この「枝分かれ」と「合流」の関係を見てみよう。

1943 1958 1986 1997 2012 2017 2018〜 形式ニューロン(McCulloch-Pitts) パーセプトロン(Rosenblatt) ← XOR問題で限界発覚 多層パーセプトロン + 誤差逆伝播法 ← Rumelhart (1986) CNN系列 LeNet(1998)LeCun AlexNet(2012)← DL革命 VGG / GoogLeNet(2014) ResNet(2015)人間超え EfficientNet / NAS(2019) RNN系列 RNN(再帰型基本形) LSTM(1997)ゲート機構 GRU(LSTMの簡略版) 双方向RNN(BiRNN) Seq2Seq + Attention Attention発展 Transformer(2017) BERT(2018) Encoder型 GPT(2018) Decoder型 RoBERTa / ALBERT GPT-2 (1.5B) GPT-3 (175B) ChatGPT / GPT-4 T5 / BART Enc-Dec型 LLaMA / Gemini / Chinchilla ... DL革命(2012〜)
ニューラルネットワークの進化 — 1943年から現代のLLMまで
💬 自然言語処理(NLP)進化マップ
表現手法 テキストの数値化 アーキテクチャ ネットワーク構造 モデル 事前学習済み 大規模モデル スケールアップ BoW TF-IDF Word2Vec CBOW / Skip-gram FastText ポイント:語順の無視 → 語順の考慮へ BoW=語順なし / RNN以降=語順あり RNN LSTM BiRNN Seq2Seq Encoder-Decoder +注意機構 Attention Transformer Self-Attention / Multi-Head ELMo BiLSTMベース BERT(2018・Google) Encoder型 / MLM + NSP GPT(2018・OpenAI) Decoder型 / 自己回帰 T5 / BART Encoder-Decoder型 GPT-3(175B) ChatGPT / GPT-4 + RLHF RoBERTa / ALBERT / DistilBERT 理解に強い ← Encoder型(BERT系) | Enc-Dec型(T5系) | Decoder型(GPT系) → 生成に強い
NLPの進化 — 単語表現からTransformer・LLMへ
👁️ コンピュータビジョン タスク・モデルマップ
CNNベースの画像系タスク CNN(畳み込みNN) 画像分類(Classification) 「何が写っているか?」 AlexNet VGG / ResNet 物体検出(Object Detection) 「何がどこにあるか?」 2段階(Region-based) 1段階(Single-shot) R-CNN Fast R-CNN Faster R-CNN Mask R-CNN → インスタンスセグメンテーション YOLO SSD 高速・リアルタイム向き セグメンテーション 「各ピクセルが何か?」 FCN U-Net 画像生成モデル VAE 潜在空間で生成 GAN(敵対的生成ネットワーク) DCGAN / StyleGAN / CycleGAN / Pix2Pix 拡散モデル ノイズ→画像を段階的復元 Text-to-Image DALL-E / Stable Diffusion
画像系タスクの全体像 — 認識・検出・セグメンテーション・生成
最適化手法の系譜
目的:損失関数(予測と正解のズレ)を最小化するために、モデルの重みを勾配で更新する ※ 主にニューラルネットワーク(DL)で使用。SGDは一部のML(ロジスティック回帰等)でも使われる SGD +慣性 Momentum 過去の勾配を加速に利用 +適応LR AdaGrad パラメータ毎に学習率調整 改良 RMSProp 移動平均で減衰を防止 Adam Momentum + RMSProp 統合 AMSGrad 収束保証の改善 AdaBound Adam→SGD漸近移行 最適化手法の進化まとめ Momentum系(慣性): 谷を転がるボールのように加速 → 振動を抑え、収束を高速化 適応学習率系: パラメータごとに学習率を自動調整 → よく更新される重みはゆっくり、稀な重みは大きく Adam = 両方の統合: 実務で最も使われる。1次モーメント(平均)+ 2次モーメント(分散)
最適化手法の系譜 — SGDからAdamとその派生まで
🛠️ 学習テクニック・過学習対策マップ
過学習(Overfitting)を防ぐ 正則化(Regularization) ML共通 L1正則化(Lasso) スパース化(特徴選択) L2正則化(Ridge) 重み減衰 Elastic Net(L1+L2) NN固有テクニック DL専用 Dropout ランダムにニューロンを無効化 Batch Normalization 層ごとに正規化 Early Stopping 検証誤差が上昇したら停止 重み初期化(Xavier / He) データ戦略 ML共通 データ拡張 回転・反転・ノイズ追加 交差検証 k-fold CV モデル軽量化テクニック 蒸留(Distillation) | 枝刈り(Pruning) | 量子化(Quantization)
過学習対策と学習テクニックの全体像
🎮 強化学習マップ
強化学習(Reinforcement Learning) エージェント・環境・状態・行動・報酬・方策 価値ベース(Value-based) Q学習 DQN(深層Q) Q関数をNNで近似 Double DQN Dueling DQN Rainbow 方策ベース(Policy-based) 方策勾配法 Actor-Critic / A3C 価値+方策の両方を学習 応用:AlphaGo(囲碁) / AlphaGo Zero(自己対戦) / AlphaStar(StarCraft II)
強化学習の手法分類 — 価値ベースと方策ベース

この知識マップの使い方