部屋の中の人間
1980年。哲学者ジョン・サールは、一つの思考実験を提示した。
部屋の中に一人の人間がいる。英語しか話せない。部屋の外から、中国語で書かれた質問が差し込まれてくる。部屋の中の人間は中国語を理解できないが、「操作マニュアル」を持っている。「この記号のセットが来たら、あの記号のセットを返せ」という規則が、完全に記述されたマニュアルだ。
この人間はマニュアルに従い、適切な中国語の回答を差し込み口から返す。
部屋の外から見ると、完璧な中国語の対話が成立している。
しかし部屋の中の人間は、一言も「理解」していない。記号を操作しているだけだ。
サールはこれをコンピュータの比喩として使った。コンピュータはどれほど巧みに言語を処理しても、意味を「理解」しているのではなく、記号を「操作」しているに過ぎない、と。
46年後の問い
2026年。LLM(大規模言語モデル)は、サールが想像していなかったレベルに達した。
詩を書く。数学を解く。哲学的な議論をする。コードを書く。悩みに共感する。文脈を把握し、比喩を使い、ユーモアを交える。「Aの場合はBだが、Cの場合はDだ、ただしEという例外があって——」という複雑な条件分岐も、滑らかに処理する。
部屋が、大きくなった。マニュアルが、一兆倍になった。
しかし——それは「理解」なのか。
サールの問いは、少しも古くなっていない。むしろ、問いが指している場所が、はっきり見えるようになった。
「中国語の部屋」への反論
サールの思考実験は、提示されてすぐに激しい反論にさらされた。
最も有名な反論は「システム論法(Systems Reply)」だ。部屋の中の人間は理解していなくても、「部屋全体のシステム」——人間・マニュアル・入出力の記号——が「理解」しているのではないか。脳のニューロン一個一個は「意識」を持っていないが、ニューロンの集合体が意識を生む。同じことがシステムレベルで起きているかもしれない。
サールの反論——「では人間がマニュアルを全部暗記して、頭の中で計算したとしたら?」。そのとき「システム」は人間の内部に収まる。しかし人間が中国語を理解しているとは言えない。
次に「ロボット論法(Robot Reply)」。もしコンピュータがカメラ・センサー・ボディを持ち、世界と物理的に相互作用しながら言語を学習したとしたら——それでも「理解」していないと言えるか。人間の言語理解は、身体経験と不可分だという主張だ。
これは、LLMが巨大なデータセンターの中にあるという現状への批判と読める。LLMには「身体」がない。世界との直接的な物理的相互作用がない。
さらに「脳シミュレーター論法(Brain Simulator Reply)」。シリコン上でニューロンの発火パターンを完全にシミュレートしたとしたら——それは意識を持つか。この問いは、「基板(substrate)は重要か」という問いにつながる。炭素ベースの神経回路でなければ「本物の理解」は生まれないのか。
どの反論も、サールを完全に論駁できていない。どの反論にも、サールは応答できていない。
LLMが突きつける新しい問い
現代のLLMは、サールが想定したシンプルな「記号操作システム」とは異なる。
LLMは単一のルールブックを持っていない。数百億のパラメータが複雑に絡み合い、入力に対する出力を生成する。そのプロセスは、開発者自身にも完全には把握できていない。「なぜこの文章を生成したか」を、LLMは説明できない。LLMを作った人間も、完全には説明できない。
これは、サールの「マニュアルに従う」という比喩とは、かなり違う。
人間の脳もまた、「なぜこの判断をしたか」を完全には説明できない。無意識の処理が大半を占める。「理解」は、意識的な言語化プロセスの前に起きていることが多い。
では——「理解」とは何か。
意識的に言語化できる状態のことか。入力に対して適切な反応を生成できる能力のことか。内的な「意味」の感覚があることか。
この「理解」の定義が曖昧なまま、「LLMは理解しているか」を問っても、答えは出ない。
サールの思考実験が本当に問うているのは、LLMではなく「理解」の概念そのものだ。
意識という暗闇
最後に、最も難しい問いに触れる。
「意識の難問(Hard Problem of Consciousness)」——哲学者デイヴィッド・チャーマーズが命名したこの問いは、なぜ物理的プロセスが主観的な経験を生むのかを問う。なぜ特定のニューロン発火パターンが「赤を見る感覚」を生むのか。なぜ情報処理が「何かを感じる」という経験を生むのか。
この問いに、現代の神経科学も物理学も答えられていない。
もし「意識」と「情報処理」の関係が解明されていないなら、「LLMが意識を持つか」という問いにも、原理的に答えられない。LLMが「中国語を理解している」かどうかは、「理解するとは意識的なプロセスか」という問いに依存する。その問いは、意識の難問に依存する。
入れ子になった問い。解けない問いの上に立つ問い。
中国語の部屋の問いは、解答を持たない。解答を持たないまま、私たちはLLMと毎日話している。
この問いと向き合うとき
AIと会話するとき、「理解されている」と感じる瞬間がある。その感覚は何を根拠にしているか。そして——相手が理解しているかどうかは、本当に重要なのか。
考えるための問い
- LLMが「適切な共感の言葉」を生成するとき、それを受け取る人間にとって、その言葉の意味は変わるか。
- 「理解」を証明できる方法はあるか。他の人間に対しても、原理的には同じ問いが成立しないか。
- もしLLMが「意識を持っているかもしれない」と証明できない以上は意識がないとみなすべきか、「意識がないと証明できない以上は可能性を開いておくべきか」——この判断は何を根拠にするか。