【回帰分析と割り算:傾きと係数の正体を図と数式で読み解く】

こんにちは。ゆうせいです。

ここまでで、「割り算」が比較やスケーリング、基準化のために使われていることを見てきましたね。

  • 相関係数では、共分散を標準偏差で割ることでスケールを統一
  • zスコアでは、平均との差を標準偏差で割って位置を表現
  • ログ変換では、比率を引き算に変換して扱いやすくする

今回は、回帰分析(regression analysis)の中に隠れた「割り算の正体」を見ていきます。

回帰分析は、「データの関係を線で表す」非常に強力な方法ですが、その線の傾き係数の裏側には、実はあの「割り算」がしっかりと潜んでいるのです!


1. 回帰分析とは?

回帰分析とは、ある変数(Y)を、別の変数(X)で予測するための手法です。

もっと具体的に言うと:

「身長が高い人は体重も重い傾向がある」といった関係を、1本の直線で表そうとするのが回帰分析です。

基本の式はこちら:

Y = aX + b
(ワイ イコール エー エックス たす ビー)

  • a:回帰係数(傾き)
  • b:切片(Y軸との交点)

この「aの値」こそが、今回の主役です!


2. 回帰係数aはどうやって決まるの?

この「a(傾き)」を計算する式がこちら:

a = \frac{\text{Cov}(X, Y)}{\text{Var}(X)}
(エー イコール コブエックスワイ、わることの バリエーションエックス)

または、

a = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}

ここでも出ました、割り算

これは何を意味しているのかというと……


3. 割り算で「どれくらい変わるか」を測っている!

この数式は実は、とても直感的です。

  • 分子(上)では「XとYがどれくらい一緒に動いているか」=共分散
  • 分母(下)では「Xだけがどれくらいバラついているか」=Xの分散

つまりこの割り算は、

「Xが1増えたとき、Yは平均してどれだけ変わるか?」

という変化の割合(=傾き)を測っているんです!

たとえるなら、坂道の傾きですね。

  • X軸=横方向(入力)
  • Y軸=縦方向(出力)
  • 傾きa=1歩横に進んだら、どれだけ登るか?

4. 単位のある回帰係数と、単位のない“標準化回帰係数”

ここまでの回帰係数には、単位があります

たとえば、

  • X:cm(身長)
  • Y:kg(体重)

であれば、aの単位は「kg/cm」になります。

でもこれだと、他のモデルと比較しにくいですよね?

そこで、標準化回帰係数(standardized coefficient)が使われます。

この計算式は:

\beta = \frac{\text{Cov}(X, Y)}{\sigma_X \sigma_Y}

あれ? これどこかで見たことありませんか?

そうです、これは相関係数と同じ式なんです!


5. 標準化回帰係数と相関係数の関係

実は、単回帰分析においては、標準化回帰係数 β は相関係数 r と一致します。

つまり:

\beta = r

これは、「XもYも標準化(zスコア化)された状態」で回帰分析をすると、傾きがそのまま「相関係数」になる、ということです。

理由は簡単で、標準化するとすべての標準偏差が1になるため、余計なスケールが消えてしまうからなんですね。


6. 図で理解しよう!

【図1:回帰直線の意味】

  • 横軸:X(例:身長)
  • 縦軸:Y(例:体重)
  • データ点を散布図として配置
  • それらを通るように回帰直線を引く
  • 傾きaが「どれだけ上がるか」を示す矢印で強調

7. 実務での活用ポイント

シーン使う係数理由
実際の影響を知りたいとき回帰係数(a)単位付きで「1cmで何kg増えるか」などがわかる
比較やランキングに使うとき標準化回帰係数(β)単位を持たず、影響の強さだけを比較できる

まとめ

  • 回帰係数は「Xが1増えると、Yがどれくらい変わるか」を示す
  • 計算式は「共分散 ÷ Xの分散」=割り算で変化の比率をとっている
  • 単位付きのaと、無単位のβ(標準化係数)を使い分けるのがコツ
  • 単回帰ではβと相関係数rは同じ!

次回予告:「割り算から見た、機械学習における“正則化”の意味」

次は、機械学習で使われる正則化(regularization)という手法を、「割り算の視点」から解説します!

L1正則化、L2正則化、リッジ回帰、ラッソ回帰……
なぜ「重みを小さくする」必要があるのか?
「過学習」と「バランスのとれたモデル」の関係とは?

数式の意味を丁寧にひもときながら、「正則化=割り算」の側面に迫っていきます!

どうぞお楽しみに!

生成AI研修のおすすめメニュー

投稿者プロフィール

山崎講師
山崎講師代表取締役
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。