第1章:数学的基礎

  • 1.1 線形代数
    • 行列・テンソルの積と勾配の計算
    • 行列のランクとアダマール積
    • 固有値分解・特異値分解(固有ベクトル、対角化、特異ベクトル)
  • 1.2 確率・統計
    • 確率の基礎(同時確率、条件付き確率、ベイズ則)
    • 確率分布(ベルヌーイ、二項、カテゴリカル、多項、ガウス、t分布、混合ガウス分布)
    • パラメータ推定(最尤推定、MAP推定、ベイズ推定)
  • 1.3 情報理論
    • 自己情報量とエントロピー(条件付き、結合、クロスエントロピー)
    • 相互情報量とダイバージェンス(KL、JSダイバージェンス)
  • 1.4 微分積分学

第2章:機械学習

  • 2.1 機械学習の基礎
    • 学習の分類(教師あり、教師なし、半教師あり)
    • k近傍法と近傍探索(kd-tree、近似最近傍)
    • 距離計算(ユークリッド、マンハッタン、マハラノビス、コサイン距離)
  • 2.2 教師あり学習:回帰と分類
    • 線形回帰(L1/L2正則化、Lasso、Ridge、多重共線性)
    • ロジスティック回帰(ロジット、シグモイド、ソフトマックス、オッズ比)
    • サポートベクターマシン(ハードマージン・ソフトマージン、カーネル法)
  • 2.3 教師あり学習:決定木とアンサンブル
    • 決定木(分類木・回帰木、CART、Gini係数)
    • アンサンブル手法(ランダムフォレスト、勾配ブースティング、バギング、ブースティング)
  • 2.4 教師なし学習
    • 次元圧縮(主成分分析、寄与率、t-SNE、SNE)
    • クラスタリング(k-means、階層的、ウォード法、群平均法)
  • 2.5 モデルの評価と課題
    • 学習の課題(汎化誤差、訓練誤差、バイアス、バリアンス、次元の呪い)
    • 検証手法(ホールドアウト法、k-分割交差検証)
    • 性能指標(Accuracy、Precision、Recall、F値、ROC/AUC、IoU、mAP、混同行列)

第3章:深層学習の基礎

  • 3.1 順伝播型ネットワーク
    • 多層パーセプトロン(全結合層、重み、バイアス)
    • 活性化関数(ReLU、Leaky ReLU、GELU、シグモイド、tanh)
    • 出力層と損失関数(MSE、MAE、クロスエントロピー、マルチラベル分類)
  • 3.2 深層モデルの最適化
    • 勾配降下法(SGD、モメンタム、Nesterov)
    • 誤差逆伝播法(連鎖律、計算グラフ、自動微分)
    • 適応的な学習率(AdaGrad、RMSProp、Adam)
    • 初期化戦略(Xavier/Glorot法、Kaiming/He法)
  • 3.3 正則化と汎化性能向上
    • 正則化(L1/L2、weight decay、ドロップアウト、ドロップコネクト)
    • データ拡張(画像:MixUp、RandAugment / 自然言語:EDA / 音声:SpecAugment)
    • 正規化(Batch、Layer、Instance、Group Normalization)

第4章:深層学習の発展ネットワーク

  • 4.1 畳み込みニューラルネットワーク (CNN)
    • 畳み込み演算(フィルタ、パディング、ストライド、im2col)
    • 特別な畳み込み(1x1、Depth-wise、グループ化畳み込み、逆畳み込み)
    • プーリング(Max、Lp、Global Average Pooling)
  • 4.2 リカレントニューラルネットワーク (RNN)
    • RNNとBPTT、双方向RNN
    • ゲート機構(LSTM、GRU)
    • 系列変換(seq2seq、アテンション機構)
  • 4.3 Transformer
    • Self-Attention、Multi-Head Attention
    • Positional Encoding、Masked Attention

第5章:深層学習の応用

  • 5.1 画像認識と物体検出
    • 代表的モデル(ResNet、WideResNet、Vision Transformer)
    • 物体検出(Faster R-CNN、YOLO、SSD、FCOS、RPN、NMS)
    • セマンティックセグメンテーション(FCN、U-Net)
  • 5.2 自然言語処理
    • 単語分散表現(Word2vec、CBOW、Skip-gram)
    • 言語モデル(BERT、MLM、NSP、GPT-n、Few-shot/Zero-shot learning)
  • 5.3 音声処理と生成モデル
    • 音声処理(短時間フーリエ変換、メルスペクトログラム、MFCC、WaveNet、CTC)
    • 生成モデル(VAE、GAN、DCGAN、CycleGAN、拡散モデル)
  • 5.4 強化学習と最新学習手法
    • 深層強化学習(DQN、A3C、Experience Replay)
    • 転移学習、ドメイン適応、能動学習、距離学習(Siamese network)、メタ学習(MAML)
    • 説明性(XAI、Grad-CAM、LIME、SHAP)

第6章:開発・運用環境

  • 6.1 モデル軽量化と分散処理
    • 軽量化(蒸留、量子化、枝刈り)
    • 分散処理(データ並列、モデル並列、連合学習)
  • 6.2 ハードウェアアクセラレータ
    • プロセッサ(GPU、TPU、SIMD/SIMT/MIMD)
  • 6.3 環境構築
    • コンテナ型仮想化(Docker、Dockerfile)