暴走するトロッコ
1967年、イギリスの哲学者 フィリッパ・フット はある場面を想像した。
ブレーキの壊れたトロッコが線路を暴走している。その先には5人の作業員がおり、このままでは全員が轢き殺される。あなたの目の前には線路の切り替えレバーがある。レバーを引けばトロッコは別の線路に逸れる。しかしその先には1人の作業員がいる。
あなたはレバーを引くか? 5人を救うために、1人を犠牲にすることは道徳的に許されるのだろうか?
多くの人は「引く」と答える。5人の命と1人の命を天秤にかけ、より多くの命を救うべきだという直感が働く。これは 功利主義的な判断 だ——最大多数の最大幸福 。シンプルで合理的に見える。実際、世界各国で行われた調査でも、 約85%の人がレバーを引く と回答している。
フットがこの思考実験を提示した背景には、当時の倫理学における行為の道徳的評価の問題があった。彼女は中絶や安楽死の議論において、「害を積極的に引き起こすこと」と「害を防がないこと」の道徳的な区別を探求していた。トロッコ問題は、その区別を鮮明にするために設計された道具だった。
太った男のバリエーション
ところが、哲学者 ジュディス・ジャーヴィス・トムソン が提示した変形版は、この直感を根底から揺さぶる。
今度はあなたが陸橋の上に立っている。眼下をトロッコが暴走し、その先に5人がいる。あなたの隣には体格の大きな男が立っている。この男を橋から突き落とせば、その体でトロッコは止まる。男は死ぬが、5人は助かる。
結果はまったく同じだ——1人が死に、5人が助かる。 しかし今度は、多くの人が「突き落とすべきではない」と答える。
なぜだろうか。功利主義の計算では同じ結果なのに、直感はまったく異なる判断を下す。ここに倫理学の核心がある。レバーを引くことと、人を突き落とすことの間には、何か決定的な違いがあるのだ。
神経科学者の ジョシュア・グリーン はfMRIを使って、この二つのシナリオで 脳の異なる領域が活性化する ことを示した。レバーのケースでは論理的思考を司る前頭前野が活発になり、突き落とすケースでは感情を処理する扁桃体が強く反応する。私たちの道徳的判断は、純粋な理性の産物ではなく、理性と感情の複雑な相互作用から生まれているのだ。グリーンはこの発見に基づき、 「二重過程理論」 を提唱した。人間の道徳判断には、速くて自動的な感情的プロセスと、遅くて意図的な認知的プロセスの二つがあり、これらが時に矛盾した結論を導くという理論だ。
行為と結果のあいだで
この違いを説明するために、哲学者たちはいくつかの原理を提示してきた。
一つは 「二重結果の原理」 だ。もともとカトリック神学に起源を持つこの原理は、13世紀のトマス・アクィナスにまで遡る。善い目的のための行為で、意図せず悪い結果が生じることは許容されるとする。レバーのケースでは、意図は5人の救助であり、1人の死は意図せざる副作用だ。しかし太った男のケースでは、1人の死そのものが手段として利用されている。 カントの定言命法——人を手段としてのみ扱ってはならない——にも通じる考え方だ。
もう一つの説明は、 「作為と不作為」の区別 だ。レバーを引くことはトロッコの進路を変えるだけだが、人を突き落とすことは能動的な加害行為である。この区別は法律の世界でも重要だ。殺人と過失致死、積極的安楽死と治療の中止の間に、法は明確な線を引いている。
さらにピーター・シンガーのような功利主義者は、これらの区別は道徳的に無意味だと主張する。結果が同じなら、手段による区別は非合理的な感情バイアスにすぎない。感情的な嫌悪感を道徳的判断の基盤にすべきではない、と。シンガーは「溺れる子供」の思考実験で、私たちが遠くの国で飢えている子供を助けないことは、目の前で溺れている子供を助けないことと道徳的に等しいと論じ、物理的距離が道徳的義務を減じるという直感に挑戦した。
だがこれらの区別は、本当に道徳的に重要なのだろうか。結果が同じなのに手段で判断が変わるということは、私たちの道徳的直感が完全には合理的でないことを示唆している。あるいは逆に、純粋な結果主義では捉えきれない道徳的な次元が存在することの証拠なのかもしれない。徳倫理学の立場からは、重要なのは行為の結果でも義務でもなく、行為者の性格や人格だとされる。「突き落とす人間」と「レバーを引く人間」では、その人の道徳的品性に対する評価が異なるのだ。
自動運転車とAIの時代に
トロッコ問題は長らく哲学教室の題材にすぎなかった。しかし自動運転車の登場により、この問いは工学的に解決しなければならない現実の問題となった。
自動運転車が避けられない事故に直面したとき、乗客を守るべきか、歩行者を守るべきか。5人の歩行者と1人の歩行者のどちらを避けるべきか。このアルゴリズムを誰かが設計しなければならない。
MITの 「Moral Machine」実験 では、世界233カ国・地域から 4000万件以上の回答 を収集し、自動運転車の倫理的判断を問いかけた。結果は興味深いことに、 文化圏によって判断が大きく異なった 。個人主義的な西洋社会では若者を優先する傾向が強く、東アジアでは高齢者への敬意が判断に影響した。法を遵守する歩行者を優先するか、多数の命を優先するかという判断にも地域差があった。
医療のトリアージも同様だ。パンデミック時に人工呼吸器が不足したとき、誰に優先的に割り当てるかという判断は、まさにトロッコ問題の現実版だった。年齢、余命、社会的役割——どの基準を用いるかで、救われる命と失われる命が変わる。イタリアの麻酔科学会は2020年、COVID-19パンデミックの初期にトリアージのガイドラインを公表し、「救命可能性の最大化」を原則としたが、これは事実上、功利主義的な計算を公式に採用したものだった。
AIが判断を下す場面が増えるほど、私たちは「正しい判断」の基準を明示的にプログラムしなければならなくなる。 暗黙の道徳的直感に頼ることが、もはや許されない時代 に入りつつある。そしてそのプログラミングの過程で、私たちは自分たちの道徳的信念を言語化し、矛盾を解消し、優先順位を明示することを迫られる。トロッコ問題は、テクノロジーの発展によって、教室の中の思考実験から社会全体が向き合うべき課題へと変貌した。
考えるための問い
この思考実験を出発点に、以下の問いについて考えてみてほしい。
- あなたはレバーを引くか? 太った男を突き落とすか? もし判断が異なるなら、その違いを論理的に説明できるか?
- 犠牲になる1人が、あなたの家族だったらどうか? 功利主義的な計算は、感情の前でも有効だろうか?
- 道徳的判断をAIに委ねることは正しいか? 人間ですら答えが出ない問いを、アルゴリズムに解かせることに問題はないか?
- 「正解がない問い」に、社会としてどう向き合うべきか? 全員が納得する倫理基準は存在しうるのか? それとも、不完全でも合意形成のプロセスそのものに価値があるのか?


