AIの心の中をのぞき見?ブラックボックスを解き明かすXAIの世界へようこそ

こんにちは。ゆうせいです。

最近、ニュースや仕事現場で「AI」という言葉を聞かない日はありませんよね。でも、AIが「これは合格です!」「この画像は猫です!」と判定したとき、どうしてその結論に至ったのか不思議に思ったことはありませんか?

実は、最新のAIは複雑すぎて、人間には中身がどう動いているか分からない「ブラックボックス」状態になっていることが多いのです。これでは、大事な判断をAIに任せるのは少し怖いですよね。

そこで登場するのが、AIの判断根拠を説明してくれる技術、XAI(説明可能なAI)です。今回はその中でも特に有名な手法である、LIMEとSHAPについて分かりやすく解説します。皆さんも、AIの家庭教師になったつもりで一緒に考えてみてくださいね!

そもそもXAIって何だろう?

XAIとは、eXplainable AIの略称です。日本語では「説明可能なAI」と呼びます。

例えば、お医者さんがAIを使って診断をするとき、AIが「この人は病気です」と言うだけでは困りますよね。「どこを見てそう判断したのか」という根拠があって初めて、お医者さんも納得して治療ができます。このように、AIの予測結果を人間に理解できるように翻訳してくれる技術がXAIなのです。

XAIには大きく分けて2つの視点があります。

大局的説明と局所的説明

  1. 大局的説明(Global Explanation)モデル全体として、何を重視しているかを見る視点です。例えば、入試合否判定AIがあったとして、「このAIは全体的に、数学の点数を一番重視して合否を決めているな」と把握するのが大局的説明です。
  2. 局所的説明(Local Explanation)「特定のデータ」に対して、なぜその結果になったのかを深掘りする視点です。「A君が不合格だったのは、英語の点数が低すぎたからだ」と、一人ひとりのケースを分析します。

今回ご紹介するLIMEとSHAPは、このうちの「局所的説明」を得意とする手法です。


どんなモデルも怖くない!Model-agnosticの魔法

LIMEとSHAPの共通点は、Model-agnostic(モデル・アグノスティック)であることです。

これは高校生レベルで例えるなら、「どんな種類のスマホでも使える万能充電器」のようなものです。AIには、画像が得意なものや、複雑な計算が得意なものなど、たくさんの種類があります。

普通は、AIの種類ごとに説明の方法を変えなければなりません。しかし、Model-agnosticな手法は、中身がどんな仕組みであっても、外側からの反応を見るだけで説明を作ってくれます。だからこそ、画像を見分けるAIにも、文章を読むAIにも、幅広く使うことができるのです。

先ほどのクイズの正解が「3」だったのは、この「どんなモデルにも適用できる」という万能性があるからですね!


似ているようで違う!LIMEとSHAPの個性を比較

LIMEとSHAPはどちらも「局所的説明」をしてくれますが、そのアプローチは少し異なります。

LIME(ライム)

LIMEは、Local Interpretable Model-agnostic Explanationsの略です。

この手法は、調べたいデータの「周辺」を少しだけ書き換えて、AIがどう反応するかを観察します。例えば、写真に写っている犬の鼻の部分を隠してみたり、色を少し変えてみたりして、「犬だと判定されなくなったなら、この鼻のパーツが重要だったんだな!」と判断します。

メリットデメリット
計算がとても速く、直感的に分かりやすいデータの作り方によって、説明の結果が不安定になることがある

SHAP(シャップ)

SHAPは、SHapley Additive exPlanationsの略です。

こちらは、ゲーム理論という数学の理論に基づいています。複数の要素が協力して一つの結果(予測)を出したとき、それぞれの要素がどれくらい貢献したかを公平に分け合う「シャプレー値」という考え方を使います。

例えば、サッカーでゴールを決めたとき、「パスを出した人」「シュートを打った人」「相手を引きつけた人」の貢献度を、数学的にきっちり計算するようなイメージです。

メリットデメリット
数学的な裏付けがあり、説明の信頼性が非常に高い計算量が膨大で、結果が出るまでに時間がかかる

どちらを使えばいいの?

スピード重視でパパッと根拠を知りたいときはLIME、数学的に厳密で、誰に対しても公平な説明を求められる場面ではSHAPを選ぶのが一般的です。

ビジネスの現場では、まずLIMEで傾向をつかみ、ここぞという重要な意思決定にはSHAPで精密な分析を行う、といった使い分けもされていますよ。


まとめと今後のステップ

AIのブラックボックスを解消するLIMEとSHAPについて、イメージは掴めましたか?「AIが出した答えだから」と鵜呑みにするのではなく、「なぜそうなったのか」を問い続ける姿勢こそが、これからのAI時代には不可欠です。

さて、次にステップアップするための指針をお伝えしますね。

  1. Pythonなどのプログラミング言語で、実際にLIMEやSHAPのライブラリを触ってみましょう。
  2. 自分が作った簡単な予測モデルに適用して、自分の直感とAIの根拠が合っているか確認してみてください。
  3. 統計学やゲーム理論の基礎を少しずつ学ぶと、SHAPの計算式の美しさがもっと理解できるようになります。

AIと正しく、仲良く付き合っていくために、この「説明する技術」をぜひマスターしてください。

セイ・コンサルティング・グループでは新人エンジニア研修のアシスタント講師を募集しています。

投稿者プロフィール

山崎講師
山崎講師代表取締役
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。

学生時代は趣味と実益を兼ねてリゾートバイトにいそしむ。長野県白馬村に始まり、志賀高原でのスキーインストラクター、沖縄石垣島、北海道トマム。高じてオーストラリアのゴールドコーストでツアーガイドなど。現在は野菜作りにはまっている。