🧠 인지·도덕

트롤리 문제: 한 명을 죽이고 다섯을 살릴 것인가

풋 1967 → 그린 2001 — 도덕이 뇌의 두 시스템에서

📅 1967 / 2001 🔬 필리파 풋 (Philippa Foot, 1967) → 조슈아 그린 (Joshua Greene, 2001) 🏛 옥스퍼드 → 프린스턴
⚡ 3분 요약
1967년 옥스퍼드 철학자 필리파 풋이 던졌다. "폭주하는 전차. 그대로 가면 5명이 죽는다. 레버를 당기면 다른 선로로 가서 1명이 죽는다. 당기겠는가?" **89%가 당긴다고 답한다.** 변형: "다리 위에 뚱뚱한 사람. 그를 밀어 떨어뜨리면 그의 몸으로 전차를 멈출 수 있다. 5명을 구한다." **이번엔 89%가 안 민다고 답한다.** 같은 1:5 비율인데 왜 다를까. 2001년 프린스턴의 조슈아 그린이 fMRI로 측정 — 레버 케이스는 전전두엽(이성), 밀기 케이스는 편도체(감정)가 활성화. **도덕은 단일 합리적 계산이 아니라 두 시스템의 충돌이다.** 이 발견은 자율주행차 윤리·AI 의사결정·전쟁법 모든 영역의 출발점.

두 가지 시나리오

1967년 풋의 「The Problem of Abortion and the Doctrine of the Double Effect」 논문. 본래 낙태 윤리를 분석하기 위한 사고실험이었다. 그러나 다음 세대 철학자 주디스 자비스 톰슨(1976)이 이를 발전시켜 두 버전을 명확히 했다. **버전 1 (레버):** 전차가 5명에게 폭주, 레버 당기면 1명 쪽으로. **버전 2 (다리):** 다리 위에서 사람을 밀어 떨어뜨리면 전차를 멈춤. 수학은 같다 — 1을 죽이고 5를 살림. 그러나 직관은 다르다.

뇌의 두 시스템

2001년 조슈아 그린의 fMRI 연구 「An fMRI Investigation of Emotional Engagement in Moral Judgment」. 피험자가 두 시나리오를 결정하는 동안 뇌 스캔. **레버 시나리오 — 배외측 전전두엽(DLPFC, 추론) 활성화. 다리 시나리오 — 내측 전두엽(mPFC, 감정) + 편도체 활성화.** 밀기를 "옳다"고 결정한 소수의 피험자들은 평균 더 오래 걸렸고, 인지 갈등을 보였다. 도덕은 단일 합리적 계산이 아니라 카네만의 시스템 1(빠른 감정) vs 시스템 2(느린 추론)의 충돌. 그린은 이를 "이중 처리 모델(dual-process model of morality)"이라 명명.

자율주행차의 트롤리

2010년대 트롤리 문제가 갑자기 실용적이 됐다 — 자율주행차. MIT의 "Moral Machine" 온라인 실험 (2018) — 230만 명이 참여. 차가 사고를 피할 수 없을 때 어른 vs 아이, 사람 vs 동물, 신호 준수자 vs 위반자 중 누구를 보호할까. **문화별 답이 달랐다.** 서구는 청년 우선, 동아시아는 노인 우선, 라틴아메리카는 여성 우선. 도덕은 보편이 아니라 문화 안에 있다. 자율주행차 개발자들은 지금도 이 트롤리에 답을 못 한다.

한자로 보는 선

"善(선)"은 양(羊) + 입(言) — 양처럼 순한 입에서 나오는 말. 좋은 말, 옳음. 「대학」: "止於至善" — "지극한 善에서 멈춘다." 1을 죽이고 5를 살리는 것이 至善인가? 5를 위해 1을 미는 것이? 트롤리 문제는 善이 단일 답이 아님을 보여준다. 한자 善의 형태가 양의 부드러움 + 말의 진실 — 결국 도덕은 추론과 감정의 양 측면. 2500년 전부터 善 한 글자에 이 복잡함이 응축돼 있었다.

🌍 현실에 미친 영향 자율주행차 윤리·AI 의사결정·전쟁법(double effect)·의료 분류(트리아지)·재난 구조.
⚠️ 논란·재현성 트롤리 문제 자체가 비현실적이라는 비판. 실제 도덕 판단은 시나리오 디테일에 매우 민감 (framing effect).