「多数のシンプルなモデル」を組み合わせて、「一つの強力なモデル」を作る様子を観察します。
点を配置し、「学習実行」を押してください。
このページは、機械学習のアンサンブル学習の一種であるバギング (Bagging) の動作を視覚的に理解するためのデモです。バギングは、多数の少しずつ異なる学習モデルを組み合わせて、より頑健で精度の高い一つのモデルを構築する手法です。
このデモでは、個々の学習モデルとして決定木 (Decision Tree) を使用しています。バギング (Bagging) は "Bootstrap Aggregating" の略で、その名の通り以下の2つのステップで構成されます。
まず、あなたが配置した元のデータセットから、ランダムにデータを復元抽出(同じデータを何度も選ぶことを許す)します。これにより、元のデータと少しだけ構成が異なる「ミニデータセット(ブートストラップサンプル)」を、モデルの数だけ作成します。
次に、作成した各ミニデータセットを使って、それぞれ独立に決定木モデルを学習させます。こうして出来上がったモデルたちは、それぞれ異なるデータで学習したため、少しずつ「個性」の違う予測をします。
最終的な予測は、これらすべてのモデルの予測結果を多数決で集約(Aggregate)して決定します。一人の専門家の意見よりも、多数の専門家の意見を参考にするのに似ています。
この手法により、個々のモデルが学習データに過剰に適合してしまう「過学習」を抑制し、より安定した汎用性の高いモデルを作ることができます。有名なランダムフォレストも、このバギングにさらにランダム性を加えたアルゴリズムです。