コンテンツへスキップ
ナビゲーションに移動
第1章:数学的基礎
- 1.1 線形代数
- 行列・テンソルの積と勾配の計算
- 行列のランクとアダマール積
- 固有値分解・特異値分解(固有ベクトル、対角化、特異ベクトル)
- 1.2 確率・統計
- 確率の基礎(同時確率、条件付き確率、ベイズ則)
- 確率分布(ベルヌーイ、二項、カテゴリカル、多項、ガウス、t分布、混合ガウス分布)
- パラメータ推定(最尤推定、MAP推定、ベイズ推定)
- 1.3 情報理論
- 自己情報量とエントロピー(条件付き、結合、クロスエントロピー)
- 相互情報量とダイバージェンス(KL、JSダイバージェンス)
- 1.4 微分積分学
第2章:機械学習
- 2.1 機械学習の基礎
- 学習の分類(教師あり、教師なし、半教師あり)
- k近傍法と近傍探索(kd-tree、近似最近傍)
- 距離計算(ユークリッド、マンハッタン、マハラノビス、コサイン距離)
- 2.2 教師あり学習:回帰と分類
- 線形回帰(L1/L2正則化、Lasso、Ridge、多重共線性)
- ロジスティック回帰(ロジット、シグモイド、ソフトマックス、オッズ比)
- サポートベクターマシン(ハードマージン・ソフトマージン、カーネル法)
- 2.3 教師あり学習:決定木とアンサンブル
- 決定木(分類木・回帰木、CART、Gini係数)
- アンサンブル手法(ランダムフォレスト、勾配ブースティング、バギング、ブースティング)
- 2.4 教師なし学習
- 次元圧縮(主成分分析、寄与率、t-SNE、SNE)
- クラスタリング(k-means、階層的、ウォード法、群平均法)
- 2.5 モデルの評価と課題
- 学習の課題(汎化誤差、訓練誤差、バイアス、バリアンス、次元の呪い)
- 検証手法(ホールドアウト法、k-分割交差検証)
- 性能指標(Accuracy、Precision、Recall、F値、ROC/AUC、IoU、mAP、混同行列)
第3章:深層学習の基礎
- 3.1 順伝播型ネットワーク
- 多層パーセプトロン(全結合層、重み、バイアス)
- 活性化関数(ReLU、Leaky ReLU、GELU、シグモイド、tanh)
- 出力層と損失関数(MSE、MAE、クロスエントロピー、マルチラベル分類)
- 3.2 深層モデルの最適化
- 勾配降下法(SGD、モメンタム、Nesterov)
- 誤差逆伝播法(連鎖律、計算グラフ、自動微分)
- 適応的な学習率(AdaGrad、RMSProp、Adam)
- 初期化戦略(Xavier/Glorot法、Kaiming/He法)
- 3.3 正則化と汎化性能向上
- 正則化(L1/L2、weight decay、ドロップアウト、ドロップコネクト)
- データ拡張(画像:MixUp、RandAugment / 自然言語:EDA / 音声:SpecAugment)
- 正規化(Batch、Layer、Instance、Group Normalization)
第4章:深層学習の発展ネットワーク
- 4.1 畳み込みニューラルネットワーク (CNN)
- 畳み込み演算(フィルタ、パディング、ストライド、im2col)
- 特別な畳み込み(1x1、Depth-wise、グループ化畳み込み、逆畳み込み)
- プーリング(Max、Lp、Global Average Pooling)
- 4.2 リカレントニューラルネットワーク (RNN)
- RNNとBPTT、双方向RNN
- ゲート機構(LSTM、GRU)
- 系列変換(seq2seq、アテンション機構)
- 4.3 Transformer
- Self-Attention、Multi-Head Attention
- Positional Encoding、Masked Attention
第5章:深層学習の応用
- 5.1 画像認識と物体検出
- 代表的モデル(ResNet、WideResNet、Vision Transformer)
- 物体検出(Faster R-CNN、YOLO、SSD、FCOS、RPN、NMS)
- セマンティックセグメンテーション(FCN、U-Net)
- 5.2 自然言語処理
- 単語分散表現(Word2vec、CBOW、Skip-gram)
- 言語モデル(BERT、MLM、NSP、GPT-n、Few-shot/Zero-shot learning)
- 5.3 音声処理と生成モデル
- 音声処理(短時間フーリエ変換、メルスペクトログラム、MFCC、WaveNet、CTC)
- 生成モデル(VAE、GAN、DCGAN、CycleGAN、拡散モデル)
- 5.4 強化学習と最新学習手法
- 深層強化学習(DQN、A3C、Experience Replay)
- 転移学習、ドメイン適応、能動学習、距離学習(Siamese network)、メタ学習(MAML)
- 説明性(XAI、Grad-CAM、LIME、SHAP)
第6章:開発・運用環境
- 6.1 モデル軽量化と分散処理
- 軽量化(蒸留、量子化、枝刈り)
- 分散処理(データ並列、モデル並列、連合学習)
- 6.2 ハードウェアアクセラレータ
- プロセッサ(GPU、TPU、SIMD/SIMT/MIMD)
- 6.3 環境構築
- コンテナ型仮想化(Docker、Dockerfile)
PAGE TOP