トップ
>
図解解説
>
ディープラーニング
ディープラーニング
CNN・RNN・強化学習・最適化手法
解説ページ一覧
ニューラルネットワークの基礎
パーセプトロン、活性化関数、誤差逆伝播法、勾配降下法、イテレーション・エポック・バッチサイズ
勾配問題と最適化アルゴリズム
勾配消失問題、プラトー、局所最適解、SGD・モメンタム・AdaGrad・RMSProp・Adam
オートエンコーダと事前学習
次元削減、VAE、積層オートエンコーダ、ファインチューニング、ムーアの法則、バーニーおじさんのルール
畳み込みニューラルネットワーク(CNN)
CNNの全体構造、畳み込み層、プーリング層、有名なアーキテクチャ
CNNの精度向上テクニックと軽量化
重みの初期設定、ドロップアウト、バッチ正規化、データ拡張、転移学習、蒸留・プルーニング・量子化
CNNアーキテクチャの進化
ネオコグニトロン、LeNet、AlexNet、VGGNet、GoogLeNet、ResNet、EfficientNet
ILSVRCと代表的データセット
ImageNet、MNIST、Fashion-MNIST、CIFAR-10、画像認識コンペの歴史
一般物体認識
特定物体認識との違い、画像分類・物体検出・セグメンテーション、R-CNN系・YOLO・SSD・FCN・Mask R-CNN
自然言語処理の基礎
形態素解析(MeCab・JUMAN・Janome)、N-gram、構文解析・意味解析・文脈解析、データ前処理、BoW、TF-IDF
単語の分散表現とWord2Vec
ワンホットベクトル、分散表現、埋め込み層、Word2Vec(CBOW・スキップグラム)、カウントベース vs 推論ベース、SVD
自然言語モデルの発展
FastText、OOV問題、Doc2Vec、BiRNN、Seq2Seq(Encoder-Decoder)、ELMo
Transformer
Attention機構、Self-Attention、マルチヘッドアテンション、Masked Self-Attention、位置エンコーディング
大規模言語モデル
事前学習・ファインチューニング、基盤モデル、スケーリング則、BERT(MLM・NSP)、ALBERT、DistilBERT、MT-DNN、GPT、ChatGPT、GLUE・SuperGLUE
生成AIとプロンプトエンジニアリング
識別AI vs 生成AI、プロンプト技法(Zero-shot・Few-shot・CoT)、ChatGPT Plus・Gemini・LLaMA、RLHF・報酬モデル・ポリシー
画像生成AI
潜在空間、VAE・VQ-VAE、GAN(DCGAN・Pix2Pix・CycleGAN・StyleGAN)、拡散モデル、CLIP、DALL·E 2、GLIDE
音声処理
A-D変換(PCM)、FFT・MFCC、隠れマルコフモデル(HMM)、DNN-HMM、波形接続TTS・パラメトリックTTS・WaveNet
RNN・LSTM・GRU
系列データ処理、隠れ状態、重み衝突問題、ゲート機構、長期依存の解決
強化学習(Reinforcement Learning)
エージェントと環境、Q学習、DQN、探索と利用のジレンマ、AlphaGo
深層強化学習アルゴリズムの発展
DQN発展形(Double DQN・Rainbow)、Actor-Critic・A3C、AlphaGo Zero・AlphaStar、Sim2Real・ドメインランダマイゼーション
マルチモーダルとモデルの解釈性
マルチモーダルAI、ニューラル画像脚注付け、ブラックボックス問題、XAI(LIME・SHAP・Grad-CAM)