特徴量エンジニアリング vs 特徴選択
特徴量エンジニアリング
特徴選択
元データと操作
シナリオ:
身長と体重から、健康状態を予測したい。しかし、このままでは綺麗に分類できなさそうです。
新しい特徴量「BMI」を創り出す!
散布図
X軸:
Y軸:
元データと操作
シナリオ:
多くの特徴量があるが、予測に不要なものが含まれているため、モデルが複雑になりすぎている。
予測に重要な特徴量だけを"選び出す"!
概念のまとめ
特徴量エンジニアリング (Feature Engineering)
目的:
新しい特徴量を「創り出す」
操作:
既存の特徴量を組み合わせたり、変換する。(例: 身長,体重 → BMI)
効果:
モデルの表現力を高める。
特徴選択 (Feature Selection)
目的:
重要な特徴量を「選び出す」
操作:
既存の特徴量の中から、予測に寄与するものを残す。
効果:
モデルを単純化し、過学習を防ぎ、計算コストを下げる。