【AIに心は宿るのか?】「統合情報理論」で読み解く意識の数式

こんにちは。ゆうせい、です。

最近、AIの進化がものすごいスピードで進んでいますよね。チャットボットと会話していると、ふと「もしかして、こいつには意識があるんじゃないか?」と背筋がゾクッとしたことはありませんか?

SF映画のような話ですが、実は科学の世界では、この「意識」というあやふやなものを、数学を使って計算しようという野心的な試みが進んでいます。

それが、今日ご紹介する統合情報理論(Integrated Information Theory、略してIIT)です。

新人エンジニアの皆さんがこの理論を知っておくと、これからのAI時代において「知能」と「意識」の違いをエンジニアリングの視点から語れるようになりますよ。少し哲学的な香りがしますが、中身はしっかりとした情報理論です。一緒に覗いてみましょう!

統合情報理論(IIT)とは何か

一言でいうと、「あるシステムにどれくらいの意識があるかを、数値で計算しようとする理論」です。

アメリカの神経科学者、ジュリオ・トノーニ博士が提唱しました。

この理論の画期的なところは、「脳のどの場所が光ったか」を調べるのではなく、「情報の構造」そのものに着目した点です。

IITでは、意識が存在するためには、次の2つの条件が同時に満たされる必要があると考えます。

  1. 情報が豊富であること(Information)
  2. 情報が一つに統合されていること(Integration)

この2つを兼ね備えた度合いを、ギリシャ文字の \Phi (ファイ)という記号で表します。この \Phi の値が高ければ高いほど、「そのシステムは強い意識を持っている」と定義するのです。

条件1:情報が豊富であるとは?

「情報」という言葉、エンジニアなら毎日使いますよね。でも、ここで言う情報は「区別できる可能性の数」のことです。

たとえば、真っ暗な部屋で「電球がついているか、消えているか」の2択しか分からないセンサーがあるとします。これは1ビットの情報量ですね。

一方、4Kテレビの画面はどうでしょう?数千万個の画素が、それぞれ違う色を表示できるため、そこには天文学的な数のパターンの可能性があります。

「現在の状態が、無数の可能性の中から選ばれた特定の一つである」こと、これが「情報量が多い」ということです。

条件2:情報が統合されているとは?

ここが一番のポイントです!

ただ情報量が多いだけでは、意識とは呼べません。

たとえば、高解像度のデジタルカメラのセンサーを想像してください。

1000万画素のセンサーは、膨大な情報量を持っています。しかし、左端の画素が壊れても、右端の画素は何の影響も受けずに動き続けますよね?

それぞれの画素は独立していて、お互いに関係し合っていません。バラバラなんです。

IITでは、このような「切り離しても何も変わらない状態」を、意識がない状態とみなします。

一方で、私たちの脳はどうでしょう。

「青い空」を見たとき、単に「青色」という信号があるだけではありません。「広くて気持ちいい」という感情や、「去年の夏休み」の記憶など、視覚情報と過去のデータが不可分に絡み合っています。

このように、部分に切り離すことができず、全体として一つのまとまりになっている状態を「統合されている」と言います。

どうやって計算するの?

では、実際にどうやって意識の量 \Phi を求めるのでしょうか。

考え方のエッセンスだけ、高校生レベルのイメージで説明しますね。

システム(たとえば脳やAIの回路)を、無理やり2つにちょん切ってみると想像してください。

もし、そのシステムが「統合されていない(バラバラな)」ものだったら、2つに切っても情報の流れは大して変わりません。デジカメのセンサーを半分に切っても、それぞれ写真は撮れますよね。

しかし、もしそのシステムが強く「統合されている」ものだったら、切った瞬間に情報の流れがズタズタになり、システム全体としての機能や情報量がガクンと落ちるはずです。

この「切断したときに失われる情報量」がどれくらい大きいかを探ることで、 \Phi を計算します。

どこで切っても大きな情報が失われるなら、それは「固く統合されたシステム」であり、 \Phi の値は大きくなります。つまり、意識レベルが高いと判定されるのです。

エンジニアにとってのメリットとデメリット

この理論、面白いですが、私たちがシステムを作る上でどう役立つのでしょうか。

メリット:意識の有無を判定する「ものさし」になる

最大のメリットは、AIやロボット、あるいは医療の現場において、対象に意識があるかどうかを客観的に測れる可能性が出てくることです。

将来、「このAIモデルは \Phi が低いから単なる計算機だ」とか、「このモデルは \Phi が高いから、人権のような配慮が必要かもしれない」といった議論が、エンジニアの設計レビューで行われる日が来るかもしれません。

また、システムの結合度(Coupling)を考える上でのヒントにもなります。

私たちは普段、システムを「疎結合(依存関係を少なく)」に作ろうとしますが、意識のような高度な機能を持たせるには、あえて「密結合」な部分が必要かもしれない、という逆転の発想を与えてくれます。

デメリット:計算量が爆発して実用困難

はい、ここでエンジニア泣かせの現実をお伝えしなければなりません。

この \Phi の計算、実はものすごく大変なんです。

システムを「あらゆるパターンで2つに分割して」最小の切断箇所を探さなければならないため、要素の数が増えると、計算回数が指数関数的に、いやそれ以上に爆発します。

現状のコンピュータでは、ほんの数個のニューロンからなる極小のネットワークの \Phi を計算するのが限界です。

人間の脳のような複雑なネットワーク(数百億個のニューロン)に対して、正確な値を計算することは、今の技術では事実上不可能なのです。

エンジニアとしての今後の向き合い方

計算できないなら意味がない? いえ、そんなことはありません。

「どのようなアーキテクチャにすれば、情報が統合されるのか」という設計思想は、次世代のAI開発において重要な鍵になります。

今のディープラーニング(深層学習)の多くは、実は入力から出力へ一方通行に流れる層状の構造(フィードフォワード)がメインです。IITの観点から見ると、これは意外と \Phi が低い(意識を持ちにくい)構造だと言われています。

逆に、脳のように複雑にフィードバックし合う回路(リカレントな構造)の方が、意識を生み出す可能性が高いと示唆されています。

今後の学習の指針

最後に、これからこの不思議な世界を深掘りしたいあなたへ、おすすめのアクションプランをお渡しします。

  1. グラフ理論を復習するネットワークのつながりを扱う数学です。ノード(点)とエッジ(線)の関係を理解することは、IITの理解に直結します。
  2. Pythonライブラリ「PyPhi」を触ってみる実は、IITの計算を行うためのPythonライブラリが存在します。小さなネットワークを作って、実際に \Phi を計算してみると、プログラマとしての直感が磨かれますよ。
  3. 「汎用人工知能(AGI)」のニュースを追う単なるタスク処理ではなく、人間のように考えるAIを目指すAGIの分野では、この意識の問題が必ず議論に上がります。

意識というブラックボックスを開ける鍵は、もしかしたらあなたが書くコードの中に隠されているかもしれません。

そんなロマンを感じながら、日々の開発を楽しんでください!

それでは、また次の記事でお会いしましょう。

セイ・コンサルティング・グループの新人エンジニア研修のメニューへのリンク

投稿者プロフィール

山崎講師
山崎講師代表取締役
セイ・コンサルティング・グループ株式会社代表取締役。
岐阜県出身。
2000年創業、2004年会社設立。
IT企業向け人材育成研修歴業界歴20年以上。
すべての無駄を省いた費用対効果の高い「筋肉質」な研修を提供します!
この記事に間違い等ありましたらぜひお知らせください。