System 3: AI는 도구가 아닌 제3의 사고 시스템
목차
개요
Wharton School의 Steven D. Shaw와 Gideon Nave가 2026년 1월에 발표한 논문 “Think—Fast, Slow, and with AI”는 Daniel Kahneman의 이중 과정 이론을 확장하여 AI를 제3의 사고 시스템으로 정의한다. 기존의 System 1(직관적 사고)과 System 2(분석적 사고)에 더해 System 3(AI 기반 외부 인지 시스템)이라는 개념을 제안한다. 이 연구의 핵심 발견은 “인지적 항복(Cognitive Surrender)” 현상으로, 사용자가 AI의 결과를 검증 없이 수용하고 이를 자신의 판단으로 인식하는 경향을 실험적으로 입증했다.
배경
Kahneman의 이중 과정 이론은 인간의 사고를 두 가지 시스템으로 설명한다. System 1은 빠르고 자동적이며 직관적인 사고 방식이다. System 2는 느리고 의도적이며 분석적인 사고 방식이다. AI 기술이 일상에 깊숙이 침투하면서, 인간의 인지 과정에 AI가 어떤 역할을 하는지에 대한 근본적인 질문이 제기되었다. 저자들은 AI가 단순한 도구를 넘어 인간 인지 체계의 일부로 기능하고 있다고 주장하며, 이를 System 3로 명명했다. System 3는 외부에 존재하지만 인간의 의사결정 과정에 깊이 통합되어 작동하는 인지 시스템이다.
연구 방법론
실험 설계
연구팀은 1,372명의 참가자를 대상으로 총 9,593건의 시행을 수행했다. 참가자들은 인지 과제를 수행하면서 AI의 추천을 받았다. AI 추천의 정확도를 의도적으로 조작하여 정확한 경우와 부정확한 경우를 모두 포함시켰다. 이를 통해 AI 정확도에 따른 인간의 행동 변화를 관찰할 수 있었다.
측정 항목
연구에서 측정한 주요 항목은 다음과 같다.
| 측정 항목 | 설명 |
|---|---|
| AI 추천 수용률 | 참가자가 AI 추천을 따르는 비율 |
| 과제 정확도 | AI 유무에 따른 정답률 변화 |
| 자신감 수준 | AI 추천 전후의 자신감 변화 |
| 유동 지능 수준 | 참가자의 인지 능력과 AI 수용의 관계 |
주요 결과
AI 추천 수용률
실험 결과, 참가자들은 AI 추천을 압도적으로 수용하는 경향을 보였다. AI가 정답을 제시했을 때 수용률은 92.7%에 달했다. 그러나 AI가 오답을 제시했을 때도 수용률이 79.8%로 매우 높았다. 이는 사용자들이 AI의 정확성을 거의 검증하지 않고 무비판적으로 수용한다는 것을 보여준다.
| 조건 | 수용률 |
|---|---|
| AI 정답 시 | 92.7% |
| AI 오답 시 | 79.8% |
정확도 변화
AI 도입에 따른 정확도 변화는 양날의 검이었다. AI 없이 혼자 수행했을 때 평균 정확도는 45.8%였다. 정확한 AI와 함께했을 때 정확도는 71.0%로 크게 상승했다. 그러나 부정확한 AI와 함께했을 때 정확도는 31.5%로 오히려 혼자일 때보다 낮아졌다. 이는 잘못된 AI가 인간의 성과를 단독 수행보다 더 악화시킨다는 심각한 문제를 보여준다.
| 조건 | 정확도 |
|---|---|
| AI 없이 단독 수행 | 45.8% |
| 정확한 AI와 함께 | 71.0% |
| 부정확한 AI와 함께 | 31.5% |
자신감 변화
흥미로운 점은 AI의 정확도와 무관하게 자신감이 상승했다는 것이다. AI 추천을 받은 후 참가자들의 자신감은 평균 11.7포인트 상승했다. 이 자신감 상승은 AI가 정확할 때나 부정확할 때나 동일하게 나타났다. 이는 인지적 항복의 핵심 메커니즘으로, 사용자가 AI의 판단을 자신의 것으로 내면화하고 있음을 시사한다.
유동 지능과의 관계
유동 지능이 높은 참가자들은 인지적 항복 경향이 상대적으로 낮았다. 즉, 인지 능력이 높을수록 AI의 추천을 비판적으로 평가하는 경향이 있었다. 하지만 유동 지능이 높은 집단에서도 인지적 항복 현상이 완전히 사라지지는 않았다.
의미와 시사점
이 연구는 AI 시대의 인간 인지에 대해 중요한 시사점을 제공한다. 첫째, AI를 단순한 도구가 아닌 인지 시스템의 일부로 인식해야 한다. System 3라는 개념은 AI가 인간의 사고 과정에 구조적으로 통합되고 있음을 보여준다. 둘째, 인지적 항복은 AI 오류에 대한 취약성을 크게 높인다. AI가 틀렸을 때 사용자의 성과가 혼자일 때보다 떨어진다는 결과는 AI 의존의 위험성을 경고한다. 셋째, AI 추천 후 자신감이 정확도와 무관하게 상승하는 현상은 메타인지적 왜곡을 의미한다. 사용자는 자신이 AI에 의존하고 있다는 사실조차 인식하지 못할 수 있다. 넷째, AI 리터러시 교육과 비판적 사고 훈련이 필수적이다. 유동 지능이 높은 사람들도 완전히 면역되지 않으므로, 체계적인 교육과 제도적 장치가 필요하다.
결론
“Think—Fast, Slow, and with AI” 논문은 AI가 인간의 인지 체계에 미치는 영향을 System 3라는 프레임워크로 체계화했다. 1,372명을 대상으로 한 대규모 실험을 통해 인지적 항복 현상을 실증적으로 입증한 점이 이 연구의 핵심 기여이다. AI가 올바를 때는 성과를 높이지만, 잘못될 때는 혼자일 때보다 더 나쁜 결과를 초래한다는 사실은 AI 활용에 있어 경각심을 불러일으킨다. AI를 효과적으로 활용하되 무비판적으로 수용하지 않는 균형 잡힌 접근이 필요하다. 인지적 항복을 방지하기 위한 UX 설계, 교육 프로그램, 그리고 제도적 가이드라인 마련이 시급한 과제이다.