AIの数学:微分・積分から活性化関数まで

Part 1: 微分と積分の基本原理

AI、特にディープラーニングを理解する上で、微分は欠かせない概念です。まず、微分が何であり、積分とどのような関係にあるのかを視覚的に探求しましょう。

マウスをグラフ上で動かしたり、ドラッグして面積を計算してみましょう。

微分 (Derivative)

x=?.? における接線の傾き

?

積分 (Integral)

区間 [?.?,?.?] の面積

?

解説: 微分と積分はなぜ「逆」の操作なのか?

上のデモで体験したように、微分と積分は、互いに逆の働きをします。

微分 (Derivative) - 「瞬間の変化」を捉える
問い:「ある瞬間において、物事はどれくらいの勢いで変化しているか?」
可視化: グラフ上のある点における接線の傾きとして表現されます。傾きが急であれば変化が大きく、平坦であれば変化が小さいことを意味します。
積分 (Integral) - 「変化の蓄積」を計算する
問い:「ある期間にわたって、変化した量は合計でどれくらいか?」
可視化: グラフとx軸で囲まれた部分の面積として表現されます。これは、非常に細かい長方形の面積を無限に足し合わせる操作に相当します。

この2つの操作は、「ある関数を積分した結果を、もう一度微分すると、元の関数に戻る」という驚くべき関係で結びついています。これが科学や工学のあらゆる分野で応用される微積分学の基本定理です。

Part 2: 応用 - ニューラルネットワークと活性化関数

基本を学んだところで、次はAI、特にディープラーニングで微分がどのように使われているかを見ていきましょう。ニューラルネットワークでは、ニューロンの発火を制御するために活性化関数というものが使われます。そして、ネットワークを学習させる際(誤差逆伝播法)に、この活性化関数の微分(勾配)が必要不可欠となるのです。

関数を選択

アニメーション

シグモイド関数 f(x)

シグモイド関数の導関数 f'(x)