【脱・数学アレルギー】AIの基礎「シグモイド関数の微分」を高校生でもわかるように解説します
【脱・数学アレルギー】AIの基礎「シグモイド関数の微分」を高校生でもわかるように解説します
こんにちは。ゆうせいです。
みなさんは、AIやディープラーニングの勉強をしていて、急に数式が出てきて手が止まってしまった経験はありませんか。特に「微分」という言葉を聞いただけで、少し身構えてしまう方もいるかもしれませんね。
でも、安心してください。実はAIが学習するために行っている計算は、仕組みさえわかってしまえば、それほど恐ろしいものではないのです。
今回は、冒頭の画像にあるような問題を解くためのカギとなる「シグモイド関数の微分」について、専門用語を噛み砕きながらお話しします。なぜAIにこの関数が必要なのか、そして計算結果が何を意味するのか、一緒に紐解いていきましょう。
AIの「判断」をつかさどるシグモイド関数とは
まず、そもそもシグモイド関数とは何者なのでしょうか。
AI、つまりニューラルネットワークにおいて、入力されたデータを次の層へ伝える際に「活性化関数」というものが使われます。シグモイド関数は、その活性化関数の一種です。
少しイメージしにくいですよね。例え話をしましょう。
部屋の照明スイッチを想像してみてください。カチッと押すとオン、もう一度押すとオフになる普通のスイッチではなく、つまみを回すと徐々に明るくなったり暗くなったりする「調光スイッチ」をイメージしてください。
シグモイド関数は、まさにこの調光スイッチのような役割を果たします。入力された信号に対して、完全に無視する(0)でもなく、そのまま通す(1)でもなく、その間の「滑らかな数値」に変換して出力してくれるのです。
数式で書くと少し複雑に見えますが、形だけ眺めてみてください。
この関数を通すと、どんなに大きな数字も小さな数字も、必ず から
の間の数値に変換されます。これが、物事の確率(例えば、この画像が猫である確率は70パーセント、など)を表すのに非常に都合が良いのです。
なぜAI学習で「微分」が必要なのか
では、なぜこの関数を「微分」する必要があるのでしょうか。ここがAI学習のキモになります。
AIの学習とは、一言で言えば「間違い探しとその修正」の繰り返しです。AIが出した答えと、本当の正解との誤差を計算し、その誤差をできるだけ小さくするように、内部のパラメータ(重み)を調整していきます。
このとき、「パラメータを少し増やせば誤差が減るのか、それとも減らせば誤差が減るのか」を知る必要があります。
ここで登場するのが微分です。
微分とは、ある地点での「傾き」を求めることです。山登りに例えてみましょう。あなたは目隠しをして山の斜面に立っています。谷底(誤差がゼロの地点)に行きたいとき、足元の傾斜を感じ取って、下り坂の方向へ足を運びますよね。
この「足元の傾斜」を数学的に求める作業こそが、微分なのです。シグモイド関数を微分することで、AIは「どちらの方向に修正すれば賢くなれるか」を知ることができるのです。
シグモイド関数の微分の魔法
さて、ここからが本題です。シグモイド関数には、微分したときに現れる、とても美しい性質があります。
通常、分数の形をした関数の微分は計算が大変です。しかし、シグモイド関数 を微分して導関数
を求めると、驚くほどシンプルな形になります。
見てください。微分した結果の中に、元の関数 がそのまま使われているのがわかりますか。
これはプログラミングをする上で非常に大きなメリットになります。なぜなら、一度計算した の値(高さ)さえわかっていれば、その値を使って簡単な掛け算をするだけで、瞬時に微分値(傾き)が求められるからです。複雑な計算をやり直す必要がありません。
実際に問題を解いてみよう
それでは、冒頭の画像の問題に挑戦してみましょう。
問題:シグモイド関数 が
をとる時、シグモイド関数の微分値
を求めなさい。ただし、
である。
先ほどの魔法の公式を使えば、もう怖くありませんね。
公式:
ここでは なので、
の値を使います。問題文にある通り、その値は
です。これを代入してみましょう。
式はこうなります。
カッコの中を計算すると ですね。つまり、
答えは、
となります。選択肢の「1」が正解です。
数学的な計算をしなくても、この「魔法の性質」さえ知っていれば、暗算でも解ける問題だったのです。
シグモイド関数のメリットとデメリット
最後に、シグモイド関数の良い点と、気をつけるべき点について整理しておきましょう。
メリット
- 出力が
から
の間に収まるため、確率として扱いやすい。
- 微分の計算が、元の関数の値を使って簡単にできるため、プログラムの負担が少ない。
- 自然界の現象や生物の神経活動に近い、滑らかな変化を表現できる。
デメリット
- 勾配消失問題(Vanishing Gradient Problem)が発生しやすい。
この「勾配消失問題」は少し難しい言葉ですが、今のうちに知っておくと役立ちます。
先ほどの計算で、微分値の最大が になることがわかりました。これは、層を深く重ねていくと、掛け算を繰り返すうちに値がどんどん小さくなってしまい、最終的に「ゼロ」に近づいてしまう現象です。
伝言ゲームで、列が長くなればなるほど、最初の言葉が後ろの人に伝わらなくなってしまうのに似ています。これにより、AIがうまく学習できなくなることがあるのです。
今後の学習の指針
いかがでしたか。
シグモイド関数の微分が、単なる数式の操作ではなく、AIが「賢くなるための方向」を探るための羅針盤であることを感じていただけたでしょうか。
0.25という数字も、ただの計算結果ではなく「シグモイド関数の傾きの最大値」として覚えると、より理解が深まります。
次は、このシグモイド関数の弱点である「勾配消失」を克服するために生まれた「ReLU(レル)関数」について学んでみると良いでしょう。現代のAI開発では、こちらが主役になることが多いです。
一歩ずつ、着実に理解を積み重ねていきましょう。応援しています!
次のステップ
「シグモイド関数」の形や、微分したときの「傾き」の変化を視覚的に確認できるPythonコード
import numpy as np
import matplotlib.pyplot as plt
# シグモイド関数の定義
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# シグモイド関数の微分の定義
# f'(x) = f(x) * (1 - f(x)) の公式を使用
def sigmoid_derivative(x):
return sigmoid(x) * (1 - sigmoid(x))
# -10 から 10 まで、0.1 刻みのデータを作成
x = np.arange(-10, 10, 0.1)
# それぞれの計算結果を取得
y = sigmoid(x)
y_grad = sigmoid_derivative(x)
# グラフの描画設定
plt.figure(figsize=(8, 5)) # グラフのサイズ
# シグモイド関数の描画(青線)
plt.plot(x, y, label='Sigmoid f(z)')
# 微分の描画(オレンジの破線)
plt.plot(x, y_grad, linestyle='--', label="Derivative f'(z)")
# グラフの装飾
plt.title('Sigmoid Function and its Derivative')
plt.grid() # グリッド線を表示
plt.legend() # 凡例を表示
plt.xlabel('Input (z)')
plt.ylabel('Value')
# 画面に表示
plt.show()セイ・コンサルティング・グループの新人エンジニア研修のメニューへのリンク
投稿者プロフィール
- 代表取締役
-
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。
学生時代は趣味と実益を兼ねてリゾートバイトにいそしむ。長野県白馬村に始まり、志賀高原でのスキーインストラクター、沖縄石垣島、北海道トマム。高じてオーストラリアのゴールドコーストでツアーガイドなど。現在は野菜作りにはまっている。