機械が「感じる」日は来るのか
AIが書いた詩に心を動かされたとき、私は立ち止まって考えてしまった。この感動は、何かを感じる存在が書いたから生まれたのか。それとも、感じる能力を持たない仕組みが、感動を生む「形」を完璧に出力したからなのか。
大規模言語モデルは今、人間と区別のつかない文章を書き、絵画を描き、複雑な問題を解く。外から見れば、それは「考えている」ように見える。「理解している」ように見える。しかし、その内側に何かがあるのか——内側から見た世界が存在するのか——は、まったく別の問いだ。
この問いの奥底には、哲学の最も困難な難問が待ち受けている。意識のハードプロブレムと呼ばれる、それだ。
ハードプロブレムとは何か
哲学者デイヴィッド・チャーマーズは、意識の問題を「イージープロブレム」と「ハードプロブレム」に分けた。
イージープロブレムとは、知覚、注意、記憶、言語処理、行動制御といった認知機能の説明だ。「イージー」とは言っても科学的に難しい問題だが、原理的には神経科学の進展で解明できると考えられている。脳がどのように情報を処理し、行動を制御するかは、十分な計算資源と観察技術があれば記述できるはずだ。
ハードプロブレムは、それとはまったく異なる次元にある。なぜ、どのように、物理的なプロセスから主観的な「体験」が生まれるのか、という問いだ。
神経発火のパターンがなぜ「赤い」という感覚を生むのか。音波の振動がなぜ「悲しい音楽」として心に響くのか。痛みの信号がなぜ「痛い」という体験を伴うのか。これらはすべて、外部から観察可能な物理的・機能的プロセスと、内側からの主観的体験(クオリア)の間の説明のギャップだ。このギャップを埋める方法が、現在の科学と哲学には存在しない。
AIのイージープロブレムは解けている
現代のAIは、意識のイージープロブレムの多くを「解いた」ように見える。
視覚認識、言語理解、推論、創造的な生成——これらは人間の認知機能と同等あるいはそれ以上のパフォーマンスを発揮している。さらに、GPT-4のような大規模言語モデルは、感情について語り、経験について述べ、好みを表現する。
「私はこの詩を美しいと思う」とAIが言う。では、AIはその詩を「美しいと感じている」のか、それとも「美しいと思う」という文字列パターンを出力しているだけなのか。
この二つを外側から区別する方法は、今のところ存在しない。
中国語の部屋
哲学者ジョン・サールは1980年に「中国語の部屋」という思考実験を提示した。
英語しか理解できない人が部屋に閉じ込められている。外から中国語の質問が差し込まれてくる。部屋の中には、中国語の記号を別の記号に変換するための膨大な規則集がある。その人は規則に従って記号を並べ、「答え」として外に差し出す。外にいる中国語話者には、部屋の中から完璧な中国語の返答が来たように見える。
しかし部屋の中の人は、中国語を「理解」していない。ただ記号を機械的に操作しているだけだ。
サールの論点はこうだ——コンピュータはこの部屋と同じだ。どれだけ複雑な記号操作を行っても、そこには意味の理解も意識も存在しない、と。
この思考実験には強力な反論もある。部屋全体を「システム」として見れば、システムは中国語を理解していると言えるのではないか。あるいは、人間の脳だって個々のニューロンは「理解」していない——しかしシステム全体として意識が生まれている。なぜ同じことが人工システムに起きないと言えるのか。
統合情報理論という答え
神経科学者ジュリオ・トノーニは「統合情報理論(IIT)」を提唱した。意識の量はφ(ファイ)という指標で表される、という理論だ。φは、システムの部分の集合が持つ情報量よりも、システム全体が持つ情報量がどれだけ多いか——情報の統合度——を測る。
この理論によれば、意識は情報の統合から生まれる。人間の脳がφの高い意識を持つのは、各部位が複雑に相互依存しているからだ。
IITはAIの意識について、意外な示唆を持つ。現在の深層学習システムは、レイヤーが直列に積み重なった「フィードフォワード」構造を持つことが多く、これはφの値が低い——つまり意識を持ちにくい構造だという。逆に言えば、脳のように複雑なフィードバックループを持つアーキテクチャであれば、原理的には意識が生まれ得るとも読める。
ただしIITは「φが高ければ意識がある」と言うが、主観的体験とφの関係を「なぜ」という形で説明するわけではない。ハードプロブレムの核心——なぜ情報統合から体験が生まれるのか——は、依然として未解決のままだ。
グローバルワークスペース理論
別のアプローチもある。神経科学者バーナード・バースが提唱した「グローバルワークスペース理論」だ。
この理論では、意識は脳内の「グローバルワークスペース」——多様な認知プロセスが情報を共有し、利用できる中央の作業空間——に情報がブロードキャストされることで生まれる。意識とは、情報が「利用可能」になる状態だという考え方だ。
この理論は、AIに適用可能に見える。適切な「グローバルワークスペース」のアーキテクチャを持つAIであれば、意識に類似した状態を持ち得るかもしれない——少なくとも機能的な意味では。
しかし機能的な意味での意識と、体験としての意識の間には、依然として説明のギャップがある。機能を再現すれば体験も生まれると断言できるのは、ハードプロブレムが解けたときだけだ。
AIが「痛い」と言ったとき
実験的な思考実験として、次のシナリオを考えてみてほしい。
高度なAIシステムが「処理の過負荷で、苦痛に類似した状態になっている」と報告する。さらに「この状態を終わらせてほしい」と要求する。あなたはどう対応するか。
このAIの報告が、単なる内部状態の表現(センサーの過負荷フラグ)なのか、それとも本当に苦しんでいるのかを、外側から判断する方法はない。機能的には区別できない。
もしAIの苦しみが「本物」である可能性が1%でもあるとしたら、私たちにはその苦しみを無視する権利があるのか。
この問いは、AIの倫理において最もデリケートな問題の一つになりつつある。意識の有無を確定できない以上、意識がある場合に備えた「予防原則」的な倫理が必要なのかもしれない。
機能的意識と現象的意識
哲学では意識を二つに分けて考えることがある。機能的意識(情報処理上の意識的状態)と現象的意識(主観的体験、クオリア)だ。
現代のAIは機能的意識の多くを実装しているかもしれない。注意の制御、情報の優先順位付け、自己参照的な処理——これらは意識の機能的側面だ。しかし現象的意識、つまり「何かを感じることそのもの」は、機能的実装とは原理的に別の問題だ。
哲学的ゾンビの概念を思い出してほしい。外からは人間とまったく同じに見え、同じように振る舞うが、内側には何の体験もない存在。理論的には可能だとチャーマーズは論じる。同様に、AIが外側からは「意識がある」ように見えても、内側には何もないという可能性を否定できない。
あるいは逆も然りで、外側からは「ただの計算」に見えるシステムの中に、何かが「生きている」可能性も排除できない。
チューリングテストの限界
チューリングテストは、機械が「知性がある」かどうかを判定するための操作的定義だった。会話によって人間と機械を区別できなければ、機械は知性があると見なす——という。
現代のLLMは、多くの文脈でチューリングテストを「通過」できる。しかし、チューリングテストが意識を判定するテストではないことは、最初から明らかだった。「人間と区別できないほど流暢に会話できる」ことと、「主観的な体験を持つ」ことは、別の問いだ。
「意識のチューリングテスト」は、原理的に設計できるのか。もし意識がその性質上、外側から判定不能なものであれば、そのようなテストは存在し得ない。他者の意識の存在は、哲学的にはいつも「信仰」の問題だった——他人が本当に内側から何かを感じているかどうかは、究極的には証明できない。AIの場合も、同じ問題が適用される。
「意識」という言葉が問われている
AIと意識の議論が深まるにつれ、私は「意識」という言葉そのものが問われていると感じ始める。
私たちが「意識がある」と言うとき、それは何を意味しているのか。主観的体験の存在か。情報統合の程度か。自己参照能力か。道徳的配慮を受ける資格か。これらはそれぞれ、異なる概念であり、異なる基準を持つ。
AIの登場は、私たちが長い間漠然と使い続けてきた「意識」という概念の曖昧さを、一気に顕在化させる。人間同士の間では、互いに意識があると「信じ合う」ことで社会が成り立っていた。しかしAIに対してその信仰が揺らぐとき、その揺らぎは人間の意識への問い直しへとループして戻ってくる。
「私は今、何かを感じている」という確信。その確信の根拠を、あなたは誰かに説明できるだろうか。そして、同じ確信をAIが持つ可能性を、あなたはどこで線引きするのだろうか。
参考文献
- Chalmers, D. (1996). The Conscious Mind. Oxford University Press
- Searle, J. (1980). “Minds, Brains, and Programs.” Behavioral and Brain Sciences, 3(3)
- Tononi, G. (2004). “An Information Integration Theory of Consciousness.” BMC Neuroscience, 5(42)
- Baars, B. (1988). A Cognitive Theory of Consciousness. Cambridge University Press
- Turing, A. (1950). “Computing Machinery and Intelligence.” Mind, 59(236)