操作方法:
- 曲面をクリックして学習を開始
- ドラッグで視点回転
- スクロールでズーム
AIや機械学習モデルが「学習」するとは、一体何をしているのでしょうか?その核心は、「損失関数」という名の成績表の点数を、できるだけ低くする(=間違いを減らす)プロセスにあります。このデモは、その成績表が作る地形(ランドスケープ)を3Dで可視化したものです。
横軸(x)と縦軸(z)はモデルの調整可能なパラメータ(重み w1
, w2
)、高さ(y)が「間違い度」を示す損失 (Loss) を表します。学習の究極の目標は、この地形の最も低い谷底(大域的最適解 ★)にたどり着くことです。
モデルは、w1
と w2
を少しずつ調整して、谷底を探します。そのための最も基本的な方法が勾配降下法です。これは、以下の単純なルールに従います。
デモで赤いボールが曲面を転がり落ちていく様子は、まさにこの勾配降下法による学習プロセスを再現しています。
しかし、谷底への道のりは常に平坦ではありません。学習プロセスには、しばしばモデルを惑わす厄介な地形が存在します。
「局所最適解のある曲面」を選択して、2つの谷のどちらかをクリックしてみてください。ボールは勢いよく谷底にたどり着きますが、開始地点によっては、より浅い方の谷(局所最適解 ★)で満足して止まってしまいます。
実際のAI開発では、AdamやMomentumといった、この局所最適解のワナを乗り越えるためのより高度な最適化手法が使われています。このデモを通じて、AIが賢くなるプロセスの裏側にある難しさや面白さを感じていただければ幸いです。
h2>