SHAP(シャップ)と LIME(ライム)の違い

こんにちは。ゆうせいです。
今回は、機械学習モデルの「説明可能性(Explainability)」を高める2つの有名な手法、
LIME(ライム)と SHAP(シャップ)の違いを、新人エンジニアの方にもわかりやすく解説します!
どちらも「ブラックボックスなAIモデルを、人間にわかりやすく説明する」ための方法ですが、
考え方・理論・使いどころがまったく異なるんです。
今回は LIME を先に紹介し、そのあとに SHAP との違いをしっかり見ていきます!
LIMEとは?名前の由来と考え方
名前の意味
LIME は
Local Interpretable Model-agnostic Explanations
の略です。
- Local:局所的な(=ある1件の予測周辺)
- Interpretable:解釈可能な
- Model-agnostic:モデルに依存しない
→ 「あらゆる機械学習モデルの個別の予測を、単純な方法で説明する」手法という意味です。
どんなふうに説明するの?
- 説明したい入力(例:ある患者の診断結果)を1つ選ぶ
- その近くに、少しずつ特徴量を変えた「似たデータ」をたくさん作る
- 元のモデルにそれらを入力し、予測値を得る
- 得られたデータと予測値をもとに、簡単な線形モデルで近似して、影響を説明する
たとえ話で理解!
「複雑な機械の動きを調べるために、そっくりの小型モデルを作ってまねしてみる」
そして、「この部品をちょっと動かしたらこうなった」という因果の近似から理由を探ります。
LIMEの特徴まとめ
特徴 | 内容 |
---|---|
説明の範囲 | ローカル(個別の予測)に焦点を当てる |
モデルへの依存性 | モデル非依存(ブラックボックスOK) |
メリット | 軽量で直感的、実装が簡単 |
デメリット | 説明が不安定(実行ごとに結果が変わることも) |
使用例 | 個別の予測理由をサクッと可視化したいとき |
SHAPとは?名前の由来と考え方
名前の意味
SHAP は
SHapley Additive exPlanations
の略です。
キーワードは「Shapley Value(シャープレーバリュー)」——
これはゲーム理論の中で「プレイヤーの貢献度を公平に分配する方法」として知られています。
SHAPは何をする?
- 特徴量を「プレイヤー」、予測値を「報酬」と見立てる
- どの特徴量がどれくらいモデルの予測に貢献したかを、全ての組み合わせで評価する
- 最も公平な特徴量の貢献度(=SHAP値)を導き出す
たとえ話で理解!
チームで1位を取ったときに、「誰がどれだけ貢献したか?」をすべての可能な組み合わせで比べて評価する。
とても公平だけど、時間がかかるし計算が大変!
SHAPの特徴まとめ
特徴 | 内容 |
---|---|
説明の範囲 | ローカル(個別)もグローバル(全体)も対応可能 |
モデルへの依存性 | モデル非依存(ただし専用の高速SHAPもある) |
メリット | 公平で一貫性のある貢献度を得られる |
デメリット | 計算コストが高い(特に特徴量が多いとき) |
使用例 | 精密なモデル解釈・特徴量の重要度分析など |
LIMEとSHAPの違いを表で比較!
比較項目 | LIME(ライム) | SHAP(シャップ) |
---|---|---|
理論的背景 | 局所的な線形近似 | ゲーム理論(シャープレーバリュー) |
説明の粒度 | 局所的(1件ずつの予測理由) | 局所もグローバルも可能 |
出力の安定性 | 実行ごとにブレる可能性あり | 安定(一意に定まる) |
計算コスト | 比較的軽い | やや重い(特徴量が多いと特に) |
解釈のしやすさ | 棒グラフなどで直感的にわかりやすい | 値の意味を正しく理解するには知識が必要 |
モデル非依存性 | モデル非依存 | モデル非依存(または専用SHAPモデル) |
どちらを使えばいい?
目的・状況 | おすすめ手法 |
---|---|
サクッと1件の予測理由を説明したい | LIME |
精密で公平な特徴量の貢献度を知りたい | SHAP |
データが小さく、処理が軽い方がいい | LIME |
ビジネスや医療で「説明責任」が求められる場合 | SHAP |
たとえ話でもう一度!
状況 | LIME | SHAP |
---|---|---|
工場の製品検査 | 現場で1つずつ目視チェックして不良品理由を推測 | 全製品の検査記録を分析して原因を統計的に導出 |
試験の点数の説明 | 「この1問が合否を分けた」と局所で分析 | 「全科目の合計から、どの科目が一番貢献したか」を見る |
今後の学習の指針
LIMEとSHAPの違いを理解できたら、次は以下の内容を学んでみましょう:
- 実際にコードでLIMEとSHAPを動かしてみる(sklearn + shap + limeパッケージ)
- 複数のモデル(ランダムフォレスト、XGBoostなど)で比較してみる
- 説明可能AI(XAI)の全体像や、法的・倫理的背景にも触れてみる
モデルの精度だけでなく、「なぜそう判断したのか?」を説明できる力は、これからのAIエンジニアにとって欠かせません!
生成AI研修のおすすめメニュー
投稿者プロフィール

- 代表取締役
-
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。
最新の投稿
全ての社員2025年7月9日ベイズの定理の新しい覚え方の提案
全ての社員2025年7月8日「Sim2Real(シム・トゥ・リアル)のパフォーマンスギャップ」とは?
全ての社員2025年7月8日「ドメインランダマイゼーション(Domain Randomization)」とは?
全ての社員2025年7月8日「Dueling Network(デュエリングネットワーク)」とは?