ロジスティック回帰 vs サポートベクターマシン (SVM)

試してみよう!

クラスを選んでキャンバスをクリック!

ロジスティック回帰

哲学: 「全体の確率」を最大化

このモデルは、すべてのデータ点を見て「この点がクラスAに属する確率は何%か?」を最も上手く説明できる境界線を探します。

  • 確率的出力: 背景の色の濃淡は、予測の「確信度」を表します。
  • 全データが影響: すべての点が、少しずつ境界線の位置に影響を与えます。
  • 外れ値に敏感: 遠く離れた点が1つあると、その点も考慮しようとして境界線が引っ張られがちです。

SVM (線形カーネル)

哲学: 「マージン(隙間)」を最大化

このモデルは、2つのクラス間にできるだけ広い「緩衝地帯(マージン)」を作ることに全力を注ぎます。

  • マージン重視: 決定境界と、その両側のマージン(色の濃い帯)が明確に描かれます。
  • 一部の点が重要: 境界線の位置は、マージン上にある点(サポートベクター、黄色枠)だけで決まります。
  • 外れ値に頑健: マージンから遠い点は無視されるため、外れ値の影響を受けにくいです。