機械学習に関連する300の用語集

機械学習(教師あり学習、教師なし学習、強化学習、ディープラーニング)に関連する300の用語集を日本語と英語を併記し、アルファベット順に並べて解説します。

A

  • Activation Function (活性化関数): 活性化関数 - ニューラルネットワークにおいて、入力信号を処理して出力を生成する関数です。代表的なものにシグモイド関数、ReLU(Rectified Linear Unit)などがあります。
  • Adversarial Attack (敵対的攻撃): 敵対的攻撃 - モデルに誤った予測をさせるために、入力データに対して微小な摂動を加える攻撃手法です。
  • Agent (エージェント): エージェント - 強化学習において、環境と相互作用し、報酬を最大化するために行動を選択する主体です。
  • Algorithm (アルゴリズム): アルゴリズム - 特定のタスクを実行するための手順や計算方法の集合です。
  • AlphaGo (アルファゴ): アルファゴ - Google DeepMindが開発した囲碁のAIで、強化学習とディープラーニングを組み合わせて人間のプロ棋士に勝利しました。
  • Artificial Intelligence (AI) (人工知能): 人工知能 - 人間の知能を模倣するコンピュータシステムで、学習、推論、適応を行うことができます。
  • Autoencoder (オートエンコーダ): オートエンコーダ - 入力データを圧縮(エンコード)し、再構築(デコード)するニューラルネットワークで、データの次元削減や特徴抽出に使用されます。
  • AUC (Area Under the Curve) (曲線下面積): 曲線下面積 - ROC曲線の下の領域を指し、分類モデルの性能を評価する指標です。値が1に近いほどモデルの性能が高いことを示します。

B

  • Backpropagation (バックプロパゲーション): 逆伝播 - ニューラルネットワークの学習アルゴリズムで、誤差を各層に伝播させて勾配を計算し、重みを更新します。
  • Batch Normalization (バッチ正規化): バッチ正規化 - ニューラルネットワークのトレーニング中にミニバッチごとにデータを正規化し、学習を安定させる手法です。
  • Bayesian Network (ベイズネットワーク): ベイズネットワーク - 確率論に基づくグラフィカルモデルで、変数間の因果関係を表現します。
  • Bias (バイアス): バイアス - モデルの予測と実際の値の間に系統的に存在する誤差を指します。また、ニューラルネットワークにおいて、ニューロンの出力に加えられる定数項も指します。
  • Binary Classification (二値分類): 二値分類 - データを2つのクラスに分類するタスクです。例えば、スパムメールの検出(スパムまたは非スパム)があります。
  • Bootstrapping (ブートストラッピング): ブートストラッピング - データからサンプリングして複数のデータセットを生成し、モデルの安定性や性能を評価する方法です。
  • Boosting (ブースティング): ブースティング - 弱い学習器を順次組み合わせて強力な学習器を構築するアンサンブル学習の手法です。AdaBoostやGradient Boostingが有名です。
  • Bayesian Optimization (ベイズ最適化): ベイズ最適化 - 確率的モデルを用いて関数の最適解を効率的に探索する最適化手法です。特にハイパーパラメータのチューニングに使用されます。

C

  • Classification (分類): 分類 - データを事前定義されたカテゴリに分類するタスクです。例えば、メールのスパム判定や画像認識などがあります。
  • Clustering (クラスタリング): クラスタリング - データを類似性に基づいてグループに分ける手法です。代表的な手法にはK-meansクラスタリングがあります。
  • CNN (Convolutional Neural Network) (畳み込みニューラルネットワーク): 畳み込みニューラルネットワーク - 画像認識に優れたニューラルネットワークの一種で、畳み込み層を使用して特徴を抽出します。
  • Coefficient of Determination (決定係数): 決定係数 - 回帰モデルの適合度を評価する指標で、値が1に近いほどモデルの精度が高いことを示します。
  • Collaborative Filtering (協調フィルタリング): 協調フィルタリング - 他のユーザーの行動データを基にユーザーにアイテムを推薦する手法です。レコメンデーションシステムで広く使用されます。
  • Confusion Matrix (混同行列): 混同行列 - 分類モデルの性能を評価するために、予測結果と実際のクラスの組み合わせを表す行列です。
  • Cross-Validation (クロスバリデーション): クロスバリデーション - データセットを複数の部分に分割し、モデルの汎化性能を評価する手法です。k分割交差検証が一般的です。
  • Cumulative Reward (累積報酬): 累積報酬 - 強化学習において、エージェントが一連の行動から得る総報酬の合計です。

D

  • Data Augmentation (データ拡張): データ拡張 - トレーニングデータセットを増やすために、既存のデータに変換やノイズを追加して新しいデータを生成する手法です。
  • Data Imputation (データ補完): データ補完 - 欠損値を持つデータセットに対して、適切な値を推定し補完するプロセスです。
  • Data Normalization (データ正規化): データ正規化 - データを特定の範囲にスケールすることで、学習の効率を向上させる手法です。
  • Decision Tree (決定木): 決定木 - データを条件に基づいて分岐させて分類や回帰を行うアルゴリズムです。
  • Deep Learning (ディープラーニング): ディープラーニング - 多層のニューラルネットワークを使用してデータから特徴を学習する機械学習手法です。
  • Dimensionality Reduction (次元削減): 次元削減 - 高次元のデータをより少ない次元に圧縮することで、データの処理を効率化する手法です。PCA(主成分分析)がよく使用されます。
  • Dropout (ドロップアウト): ドロップアウト - ニューラルネットワークのトレーニング中にランダムにユニットを無効にし、過学習を防止するための手法です。

E

  • Early Stopping (アーリーストッピング): アーリーストッピング - モデルがトレーニングデータに対して過学習する前にトレーニングを停止する方法です。
  • Embedding (埋め込み): 埋め込み - 高次元のデータ(例:単語やカテゴリカルデータ)を低次元の連続空間に変換する方法です。自然言語処理でよく使用されます。
  • Ensemble Learning (アンサンブル学習): アンサンブル学習 - 複数のモデルを組み合わせて、単一のモデルよりも高い予測精度を得る手法です。バギングやブースティングが例です。
  • Epoch (エポック): エポック - 機械学習モデルのトレーニングにおいて、全てのトレーニングデータが一度モデルに渡されることを指します。
  • Exploration vs. Exploitation (探索と活用のトレードオフ): 探索と活用のトレードオフ - 強化学習において、新しい行動を探索することと、既知の最適行動を活用することのバランスを取る課題です。

F

  • Feature Engineering (特徴エンジニアリング): 特徴エンジニアリング - モデルの性能を向上させるために、データから有用な特徴を作成するプロセスです。
  • Feature Extraction (特徴抽出): 特徴抽出 - データから重要な特徴や情報を取り出すプロセスです。PCAやLDAが例です。
  • Feature Map (特徴マップ): 特徴マップ - 畳み込みニューラルネットワーク(CNN)におけるフィルターを適用した後に得られる出力のことです。
  • Feedforward Neural Network (順伝播型ニューラルネットワーク): 順伝播型ニューラルネットワーク - 一方向にのみデータが流れるニューラルネットワークで、入力層、隠れ層、出力層で構成されます。
  • Fine-Tuning (微調整): 微調整 - 既存のモデルを特定のタスクに合わせて再トレーニングするプロセスです。Transfer Learningと組み合わせて使われます。
  • Fully Connected Layer (全結合層): 全結合層 - ニューラルネットワークの層の一つで、すべての入力ノードが次の層のすべてのノードに接続される構造です。

G

  • GAN (Generative Adversarial Network) (生成敵対ネットワーク): 生成敵対ネットワーク - ジェネレータとディスクリミネータという2つのモデルが競い合いながら学習することで、新しいデータを生成するニューラルネットワークです。
  • Gradient Descent (勾配降下法): 勾配降下法 - 損失関数の勾配に従ってモデルのパラメータを最適化するアルゴリズムです。
  • Gradient Vanishing Problem (勾配消失問題): 勾配消失問題 - ニューラルネットワークの深い層で勾配が消失し、学習が進まなくなる問題です。ReLUの導入などで対処されます。
  • Graph Neural Network (GNN) (グラフニューラルネットワーク): グラフニューラルネットワーク - グラフ構造データに対して学習を行うニューラルネットワークの一種です。
  • Grid Search (グリッドサーチ): グリッドサーチ - ハイパーパラメータの最適な組み合わせを見つけるために、全ての組み合わせを探索する手法です。

H

  • Hyperparameter (ハイパーパラメータ): ハイパーパラメータ - モデルの学習プロセスにおいて設定するべきパラメータで、トレーニング前に調整する必要があります。例:学習率、エポック数。
  • Hyperplane (超平面): 超平面 - 特徴空間内でデータを分類するために使用される平面です。サポートベクターマシン(SVM)で使用されます。

I

  • Image Recognition (画像認識): 画像認識 - 画像からオブジェクトやパターンを識別するタスクです。ディープラーニングモデルが多く用いられます。
  • Imbalanced Data (不均衡データ): 不均衡データ - クラス間でデータの分布が極端に偏っているデータセットのことです。これにより、モデルの性能にバイアスがかかることがあります。
  • Instance Segmentation (インスタンスセグメンテーション): インスタンスセグメンテーション - 画像内の各オブジェクトをピクセル単位で区別し、複数のオブジェクトを同時に認識するタスクです。
  • Interpretability (解釈可能性): 解釈可能性 - モデルの予測がどのように導かれたかを人間が理解できる程度に説明する能力です。
  • Interpolation (補間): 補間 - 既知のデータポイント間の値を推定するプロセスです。

J

  • Jaccard Index (ジャッカード指数): ジャッカード指数 - 2つの集合間の類似性を測る指標で、共通部分の割合を表します。
  • Jupyter Notebook (ジュピターノートブック): ジュピターノートブック - インタラクティブな計算環境で、データ分析や機械学習の実験に広く使用されるツールです。

K

  • K-Means Clustering (K平均法クラスタリング): K平均法クラスタリング - データをK個のクラスタに分ける教師なし学習アルゴリズムです。各クラスタの中心を計算してデータポイントを割り当てます。
  • K-Nearest Neighbors (KNN) (K近傍法): K近傍法 - 新しいデータポイントを最も近いK個の既知のデータポイントに基づいて分類するアルゴリズムです。
  • Kernel (カーネル): カーネル - SVMなどのアルゴリズムで、データを高次元空間にマッピングするために使用される関数です。
  • Kernel Trick (カーネルトリック): カーネルトリック - データを高次元空間に変換する際、実際に高次元空間にマッピングすることなく計算を行う手法です。

L

  • Label (ラベル): ラベル - 監督学習において、データポイントに付与された正解またはクラスを示すものです。
  • Learning Rate (学習率): 学習率 - 勾配降下法でパラメータを更新する際のステップサイズを制御するパラメータです。
  • LSTM (Long Short-Term Memory) (長短期記憶): 長短期記憶 - RNNの一種で、長期的な依存関係を学習する能力を持つニューラルネットワークです。
  • Logistic Regression (ロジスティック回帰): ロジスティック回帰 - 二項分類問題に使用される回帰分析手法で、出力が0と1の間の確率となるようにモデル化します。
  • Loss Function (損失関数): 損失関数 - モデルの予測と実際の値の差を数値化し、モデルの性能を評価するための関数です。
  • Latent Variable (潜在変数): 潜在変数 - 観測できないが、データに影響を与える変数です。オートエンコーダや潜在変数モデルで使用されます。
  • Linear Regression (線形回帰): 線形回帰 - データの関係を直線でモデル化し、予測するための回帰手法です。

M

  • Machine Learning (機械学習): 機械学習 - データからパターンを学び、予測や意思決定を行うアルゴリズムの集合です。
  • Manifold Learning (多様体学習): 多様体学習 - 高次元データを低次元に埋め込み、データの構造を学習する手法です。t-SNEやLLEが例です。
  • Markov Decision Process (MDP) (マルコフ決定過程): マルコフ決定過程 - 強化学習において、状態、行動、報酬、遷移確率を持つ決定問題のモデルです。
  • Mean Squared Error (MSE) (平均二乗誤差): 平均二乗誤差 - モデルの予測と実際の値の差を二乗して平均した誤差の指標で、回帰モデルの性能評価に使用されます。
  • Model Selection (モデル選択): モデル選択 - データに最も適した機械学習モデルを選択するプロセスです。
  • Momentum (モメンタム): モメンタム - 勾配降下法の最適化アルゴリズムで、前回の更新値を考慮して新しい更新値を計算することで、学習を加速させる手法です。

N

  • Neural Network (ニューラルネットワーク): ニューラルネットワーク - 生物の脳の構造を模倣して設計された計算モデルで、層を持つノードのネットワークから構成されます。
  • Normal Distribution (正規分布): 正規分布 - データが平均値を中心に左右対称に広がる確率分布で、ガウス分布とも呼ばれます。
  • Normalization (正規化): 正規化 - データを一定の範囲にスケーリングするプロセスで、モデルのトレーニングを安定させるために使用されます。

O

  • Overfitting (過学習): 過学習 - モデルがトレーニングデータに過度に適応し、新しいデータに対してうまく一般化できない状態です。
  • Optimizer (最適化アルゴリズム): 最適化アルゴリズム - モデルのパラメータを調整して損失関数を最小化するアルゴリズムです。代表的なものにSGD、Adamがあります。
  • One-Hot Encoding (ワンホットエンコーディング): ワンホットエンコーディング - カテゴリカルデータを二進数ベクトルに変換する方法で、各カテゴリがベクトル内で1と0のどちらかで表現されます。

P

  • PCA (Principal Component Analysis) (主成分分析): 主成分分析 - 高次元データを少数の主成分に変換して次元削減を行う手法です。
  • Precision (適合率): 適合率 - モデルが正しいと予測したデータの中で、実際に正しいものの割合を示す指標です。
  • Preprocessing (前処理): 前処理 - データを分析やモデルに適用する前に、クレンジングや変換を行うプロセスです。
  • Prediction (予測): 予測 - 学習したモデルを使って、新しいデータに対して出力を推定することです。
  • Probabilistic Model (確率モデル): 確率モデル - 不確実性を考慮して、確率分布を用いてデータをモデル化する手法です。

Q

  • Q-Learning (Q学習): Q学習 - 強化学習の一種で、エージェントが行動価値関数(Q関数)を学習することで最適な行動方針を決定します。
  • Quantization (量子化): 量子化 - 連続的な信号やデータを離散的な値に変換するプロセスです。ニューラルネットワークの軽量化にも使用されます。

R

  • Random Forest (ランダムフォレスト): ランダムフォレスト - 複数の決定木を組み合わせたアンサンブル学習モデルで、高い汎化性能を持ちます。
  • Recurrent Neural Network (RNN) (再帰型ニューラルネットワーク): 再帰型ニューラルネットワーク - 時系列データやシーケンシャルデータを処理するために使用されるニューラルネットワークです。
  • Reinforcement Learning (強化学習): 強化学習 - エージェントが環境と相互作用しながら報酬を最大化する行動を学習する手法です。
  • Regularization (正則化): 正則化 - モデルの複雑さを抑えることで、過学習を防ぎ、モデルの汎化性能を向上させる手法です。
  • ReLU (Rectified Linear Unit) (修正線形単位): 修正線形単位 - ニューラルネットワークにおける活性化関数の一種で、入力が0以下の場合は0、0を超える場合はそのままの値を出力します。
  • Residual Network (ResNet) (残差ネットワーク): 残差ネットワーク - 深いニューラルネットワークの学習を容易にするために、残差接続を導入したネットワークです。
  • ROC Curve (ROC曲線): ROC曲線 - モデルの性能を評価するための曲線で、真陽性率と偽陽性率をプロットして表現します。

S

  • SVM (Support Vector Machine) (サポートベクターマシン): サポートベクターマシン - クラス間のマージンを最大化することでデータを分類する教師あり学習アルゴリズムです。
  • Sampling (サンプリング): サンプリング - 大規模なデータセットから部分集合を選択して分析やトレーニングに使用するプロセスです。
  • Semi-supervised Learning (半教師あり学習): 半教師あり学習 - ラベル付きデータとラベルなしデータの両方を使ってモデルをトレーニングする手法です。
  • SGD (Stochastic Gradient Descent) (確率的勾配降下法): 確率的勾配降下法 - 各イテレーションごとにランダムに選ばれた一部のデータを使用してパラメータを更新する勾配降下法の一種です。
  • Sigmoid Function (シグモイド関数): シグモイド関数 - 出力を0から1の範囲に制約する活性化関数で、ロジスティック回帰で広く使用されます。
  • Softmax Function (ソフトマックス関数): ソフトマックス関数 - 出力層の活性化関数として使用され、複数クラスの分類問題で各クラスの確率を計算します。
  • Stochastic Process (確率過程): 確率過程 - 時間とともに確率的に変動するプロセスで、強化学習における環境のモデリングに使用されます。
  • Supervised Learning (教師あり学習): 教師あり学習 - ラベル付きデータを使ってモデルをトレーニングし、新しいデータに対する予測を行う手法です。
  • Synthetic Data (合成データ): 合成データ - 現実のデータを模倣して人工的に生成されたデータで、モデルのトレーニングやテストに使用されます。

T

  • Test Set (テストセット): テストセット - トレーニングされたモデルの性能を評価するために使用される、モデルのトレーニングには使用されないデータセットです。
  • Training Set (トレーニングセット): トレーニングセット - 機械学習モデルの学習に使用されるデータセットです。
  • Transfer Learning (転移学習): 転移学習 - 既存のモデルを利用して新しいタスクに適用する学習方法です。
  • TensorFlow (テンソルフロー): テンソルフロー - Googleが開発したオープンソースの機械学習ライブラリで、ディープラーニングモデルの構築やトレーニングに使用されます。
  • Time Series Analysis (時系列解析): 時系列解析 - 時間の経過とともにデータがどのように変化するかを分析する手法で、経済データやセンサーデータに適用されます。
  • Truncated Backpropagation Through Time (TBPTT) (時間展開逆伝播法): 時間展開逆伝播法 - RNNのトレーニングにおいて、過去の一定範囲内の時間ステップに制限して誤差を逆伝播させる手法です。

U

  • Underfitting (過小適合): 過小適合 - モデルがデータに十分に適応せず、トレーニングデータとテストデータの両方で良い性能を示さない状態です。
  • Unsupervised Learning (教師なし学習): 教師なし学習 - ラベルなしデータを使って、データのパターンや構造を見つける手法です。クラスタリングが一般的です。
  • Upsampling (アップサンプリング): アップサンプリング - 低解像度のデータを高解像度に変換するプロセスで、画像処理やデータ拡張に使用されます。

V

  • Validation Set (検証セット): 検証セット - モデルのハイパーパラメータ調整や過学習の検出に使用されるデータセットです。
  • Vanishing Gradient Problem (勾配消失問題): 勾配消失問題 - ニューラルネットワークのトレーニング中に、勾配が小さくなりすぎて更新がうまく行われなくなる問題です。
  • Variational Autoencoder (VAE) (変分オートエンコーダ): 変分オートエンコーダ - 確率的な潜在変数を持つオートエンコーダで、データの生成モデルとして使用されます。
  • Variance (分散): 分散 - データのばらつきを表す統計量で、モデルの予測の不安定さにも関連します。
  • Vectorization (ベクトル化): ベクトル化 - データ(特にテキスト)を数値ベクトルに変換し、機械学習モデルで処理できるようにするプロセスです。

W

  • Weight (重み): 重み - ニューラルネットワークのパラメータで、各ノード間の接続強度を示します。
  • Word Embedding (ワードエンベディング): ワードエンベディング - テキスト内の単語をベクトル表現に変換し、単語の意味的な関係を捉える手法です。Word2VecやGloVeが例です。

X

  • XGBoost (エックスジーブースト): エックスジーブースト - 勾配ブースティングフレームワークで、特に大規模データセットに対する優れた性能を持つ機械学習ライブラリです。

Y

  • YOLO (You Only Look Once) (ヨロ): ヨロ - リアルタイムオブジェクト検出アルゴリズムで、一度の畳み込みで画像全体を処理して物体を検出します。

Z

  • Zero-shot Learning (ゼロショット学習): ゼロショット学習 - トレーニングデータに存在しないクラスに対しても、適切な予測を行うことができる学習方法です。
  • Z-score (Zスコア): Zスコア - データポイントが平均からどれだけ離れているかを標準偏差で測定する指標です。

セイ・コンサルティング・グループの機械学習研修

6.5 Pythonによる機械学習入門研修

キーワード:教師あり/なし/強化学習、ディープラーニング

https://saycon.co.jp/whatwedo-2/prog/python

投稿者プロフィール

山崎講師
山崎講師代表取締役
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。