【回帰分析と割り算:傾きと係数の正体を図と数式で読み解く】

こんにちは。ゆうせいです。
ここまでで、「割り算」が比較やスケーリング、基準化のために使われていることを見てきましたね。
- 相関係数では、共分散を標準偏差で割ることでスケールを統一
- zスコアでは、平均との差を標準偏差で割って位置を表現
- ログ変換では、比率を引き算に変換して扱いやすくする
今回は、回帰分析(regression analysis)の中に隠れた「割り算の正体」を見ていきます。
回帰分析は、「データの関係を線で表す」非常に強力な方法ですが、その線の傾きや係数の裏側には、実はあの「割り算」がしっかりと潜んでいるのです!
1. 回帰分析とは?
回帰分析とは、ある変数(Y)を、別の変数(X)で予測するための手法です。
もっと具体的に言うと:
「身長が高い人は体重も重い傾向がある」といった関係を、1本の直線で表そうとするのが回帰分析です。
基本の式はこちら:
(ワイ イコール エー エックス たす ビー)
- a:回帰係数(傾き)
- b:切片(Y軸との交点)
この「aの値」こそが、今回の主役です!
2. 回帰係数aはどうやって決まるの?
この「a(傾き)」を計算する式がこちら:
(エー イコール コブエックスワイ、わることの バリエーションエックス)
または、
ここでも出ました、割り算!
これは何を意味しているのかというと……
3. 割り算で「どれくらい変わるか」を測っている!
この数式は実は、とても直感的です。
- 分子(上)では「XとYがどれくらい一緒に動いているか」=共分散
- 分母(下)では「Xだけがどれくらいバラついているか」=Xの分散
つまりこの割り算は、
「Xが1増えたとき、Yは平均してどれだけ変わるか?」
という変化の割合(=傾き)を測っているんです!
たとえるなら、坂道の傾きですね。
- X軸=横方向(入力)
- Y軸=縦方向(出力)
- 傾きa=1歩横に進んだら、どれだけ登るか?
4. 単位のある回帰係数と、単位のない“標準化回帰係数”
ここまでの回帰係数には、単位があります。
たとえば、
- X:cm(身長)
- Y:kg(体重)
であれば、aの単位は「kg/cm」になります。
でもこれだと、他のモデルと比較しにくいですよね?
そこで、標準化回帰係数(standardized coefficient)が使われます。
この計算式は:
あれ? これどこかで見たことありませんか?
そうです、これは相関係数と同じ式なんです!
5. 標準化回帰係数と相関係数の関係
実は、単回帰分析においては、標準化回帰係数 β は相関係数 r と一致します。
つまり:
これは、「XもYも標準化(zスコア化)された状態」で回帰分析をすると、傾きがそのまま「相関係数」になる、ということです。
理由は簡単で、標準化するとすべての標準偏差が1になるため、余計なスケールが消えてしまうからなんですね。
6. 図で理解しよう!
【図1:回帰直線の意味】
- 横軸:X(例:身長)
- 縦軸:Y(例:体重)
- データ点を散布図として配置
- それらを通るように回帰直線を引く
- 傾きaが「どれだけ上がるか」を示す矢印で強調
7. 実務での活用ポイント
シーン | 使う係数 | 理由 |
---|---|---|
実際の影響を知りたいとき | 回帰係数(a) | 単位付きで「1cmで何kg増えるか」などがわかる |
比較やランキングに使うとき | 標準化回帰係数(β) | 単位を持たず、影響の強さだけを比較できる |
まとめ
- 回帰係数は「Xが1増えると、Yがどれくらい変わるか」を示す
- 計算式は「共分散 ÷ Xの分散」=割り算で変化の比率をとっている
- 単位付きのaと、無単位のβ(標準化係数)を使い分けるのがコツ
- 単回帰ではβと相関係数rは同じ!
次回予告:「割り算から見た、機械学習における“正則化”の意味」
次は、機械学習で使われる正則化(regularization)という手法を、「割り算の視点」から解説します!
L1正則化、L2正則化、リッジ回帰、ラッソ回帰……
なぜ「重みを小さくする」必要があるのか?
「過学習」と「バランスのとれたモデル」の関係とは?
数式の意味を丁寧にひもときながら、「正則化=割り算」の側面に迫っていきます!
どうぞお楽しみに!
生成AI研修のおすすめメニュー
投稿者プロフィール

- 代表取締役
-
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。
最新の投稿
全ての社員2025年7月14日Precisionと事後確率の違いとは?ベイズの定理は不要になるのか徹底解説
全ての社員2025年7月11日【第3章:回帰分析と掛け算 ― 係数が持つ“影響力”の意味】
全ての社員2025年7月11日【第2章:期待値と掛け算 ― 平均の裏にある重みづけの構造】
全ての社員2025年7月11日【第1章:確率における掛け算 ― 依存と独立をつなぐ橋】