損失曲面の選択

操作方法:
- 曲面をクリックして学習を開始
- ドラッグで視点回転
- スクロールでズーム

学習情報

曲面をクリックしてください

学習の裏側を探る:損失関数のランドスケープ

AIや機械学習モデルが「学習」するとは、一体何をしているのでしょうか?その核心は、「損失関数」という名の成績表の点数を、できるだけ低くする(=間違いを減らす)プロセスにあります。このデモは、その成績表が作る地形(ランドスケープ)を3Dで可視化したものです。

横軸(x)と縦軸(z)はモデルの調整可能なパラメータ(重み w1, w2)、高さ(y)が「間違い度」を示す損失 (Loss) を表します。学習の究極の目標は、この地形の最も低い谷底(大域的最適解 にたどり着くことです。

勾配降下法:谷底へ向かうコンパス

モデルは、w1w2 を少しずつ調整して、谷底を探します。そのための最も基本的な方法が勾配降下法です。これは、以下の単純なルールに従います。

  1. 現在地の「傾き(勾配)」を調べる。
  2. 最も急な下り坂の方向を見つける。
  3. その方向に、ほんの少しだけ進む。
  4. 1〜3を、谷底(傾きがほぼ0の場所)に着くまで繰り返す。

デモで赤いボールが曲面を転がり落ちていく様子は、まさにこの勾配降下法による学習プロセスを再現しています。

学習を妨げる「局所最適解」のワナ

しかし、谷底への道のりは常に平坦ではありません。学習プロセスには、しばしばモデルを惑わす厄介な地形が存在します。

「局所最適解のある曲面」を選択して、2つの谷のどちらかをクリックしてみてください。ボールは勢いよく谷底にたどり着きますが、開始地点によっては、より浅い方の谷(局所最適解 )で満足して止まってしまいます。

実際のAI開発では、AdamやMomentumといった、この局所最適解のワナを乗り越えるためのより高度な最適化手法が使われています。このデモを通じて、AIが賢くなるプロセスの裏側にある難しさや面白さを感じていただければ幸いです。

h2>