생각의 사슬(CoT): 이제는 "과정을 보여줘"보다 "검증 가능하게 풀어줘"가 중요하다
생각의 사슬(CoT): 이제는 "과정을 보여줘"보다 "검증 가능하게 풀어줘"가 중요하다
먼저 결론
CoT는 여전히 유용합니다. 다만 예전처럼 프롬프트 끝에 "단계별로 생각해줘"만 붙이는 방식으로는 부족합니다. 최신 AI 모델은 이미 내부적으로 꽤 많은 추론을 합니다. 그래서 지금 중요한 것은 모델의 머릿속을 길게 보여달라고 요구하는 것이 아니라, 결론을 검증 가능한 형태로 정리하게 만드는 것입니다.
이 글은 CoT를 "마법 주문"이 아니라 실무용 사고 구조로 쓰는 방법을 정리합니다.
저장해둘 이유는 단순합니다. AI 답변이 그럴듯한데 틀리는 순간은 대부분 "생각을 안 해서"가 아니라, 사람이 검수할 수 없는 형태로 답했기 때문입니다. CoT를 제대로 쓰면 답변은 길어지는 것이 아니라, 판단하기 쉬워집니다.
CoT를 한 문장으로 정의하면
CoT는 AI에게 정답만 요구하지 않고, 문제를 쪼개고, 근거를 놓고, 반례를 확인한 뒤, 결론을 내리게 만드는 프롬프팅 방식입니다.
다만 최신 reasoning 모델에서는 아래처럼 바꿔 쓰는 편이 좋습니다.
생각 과정을 전부 보여주기보다, 결론을 검증할 수 있게 근거, 반례, 확인 절차를 정리해줘.
OpenAI의 reasoning 모델 가이드는 reasoning 모델이 내부적으로 추론을 수행하므로, 단순히 "think step by step"을 반복하는 방식이 항상 최선은 아니라고 설명합니다. 대신 목표와 제약, 출력 형식, 검증 기준을 명확히 주는 쪽이 더 실용적입니다.
참고: OpenAI Reasoning best practices, OpenAI Prompting guide
왜 예전 방식이 부족해졌나
예전 프롬프팅 글에서는 보통 이렇게 말했습니다.
단계별로 차근차근 생각해줘.
이 문장은 나쁘지 않습니다. 단순한 문제에서는 여전히 답변 품질을 올립니다. 하지만 실무에서는 몇 가지 문제가 생깁니다.
첫째, 답변이 길어지기만 하고 판단 기준이 없습니다.
둘째, 모델이 틀린 근거를 길게 설명해도 사용자가 속기 쉽습니다.
셋째, "단계별 설명"이 실제 실행 순서와 다를 수 있습니다.
넷째, 최신 reasoning 모델에서는 내부 추론과 사용자에게 보여줄 설명을 분리해서 다루는 편이 안전합니다.
그래서 이제는 "생각을 보여줘"보다 "검증 가능한 산출물을 만들어줘"라고 요구해야 합니다.
실패하는 CoT와 성공하는 CoT
| 구분 | 프롬프트 | 결과 |
|---|---|---|
| 실패 | "이 아이디어 괜찮아? 단계별로 생각해줘." | 길고 친절하지만 결론이 흐림 |
| 개선 | "이 아이디어를 사용자 문제, 차별점, 실행 리스크, 검증 실험으로 나눠 평가해줘." | 판단 항목이 생김 |
| 실무형 | "결론부터 말하고, 근거 3개, 반례 2개, 이번 주 검증 실험 3개로 정리해줘." | 바로 실행 가능한 결과가 나옴 |
기본 템플릿: 검증 가능한 분석 요청
가장 범용적인 CoT 템플릿입니다.
아래 문제를 검토해줘.
목표:
- [내가 얻고 싶은 최종 결과]
상황:
- [현재 상태]
- [내가 이미 시도한 것]
- [사용 가능한 자원]
제약:
- 시간:
- 비용:
- 기술:
- 피해야 할 것:
출력 형식:
1. 결론 요약
2. 판단 근거 3가지
3. 가능한 반례 또는 리스크 2가지
4. 추가로 확인해야 할 정보
5. 가장 보수적인 추천안
6. 바로 실행할 다음 행동 3개
주의:
- 확실하지 않은 내용은 추정이라고 표시해줘.
- 근거 없는 단정은 하지 마.
- 내가 놓친 전제가 있으면 먼저 지적해줘.
이 템플릿의 핵심은 "생각해줘"가 아니라 "판단 가능한 구조로 출력해줘"입니다.
템플릿 1: 기획안 검토
아래 서비스 아이디어를 검토해줘.
아이디어:
[아이디어 설명]
검토 기준:
1. 실제 사용자 문제가 있는가
2. 기존 대안보다 나은 점이 있는가
3. 내가 2주 안에 검증할 수 있는가
4. 실패 가능성이 가장 높은 지점은 어디인가
출력 형식:
- 한 줄 결론
- 강점 3개
- 약점 3개
- 반드시 검증해야 할 가정
- 2주 검증 실험 계획
- 하지 말아야 할 일
예시
나쁜 질문:
AI 뉴스 사이트 아이디어 괜찮아?
좋은 질문:
AI 뉴스 사이트 아이디어를 검토해줘.
타깃은 AI 도구를 업무에 쓰는 1인 창작자와 소규모 팀이야.
매일 5분 안에 읽을 수 있는 브리핑을 제공하려고 해.
검토 기준:
1. 이 타깃이 실제로 매일 읽을 이유가 있는가
2. 기존 뉴스레터와 비교해 차별점이 있는가
3. 콘텐츠 생산을 자동화해도 품질을 유지할 수 있는가
4. 첫 달에 검증할 지표는 무엇인가
결론, 근거, 리스크, 검증 실험으로 나눠서 답해줘.
이렇게 물으면 "좋은 아이디어입니다"가 아니라 어떤 가정이 위험한지 드러납니다.
템플릿 2: 코드 수정 방향 비교
아래 버그를 고치는 방법을 비교해줘.
버그:
[증상]
관련 코드:
[코드 또는 파일 설명]
요구사항:
- 기존 동작을 최대한 유지
- 수정 범위를 작게
- 회귀 테스트 가능해야 함
출력 형식:
| 방법 | 수정 범위 | 장점 | 위험 | 테스트 방법 | 추천 |
|---|---|---|---|---|---|
마지막에는 가장 보수적인 해결책을 하나만 추천해줘.
개발에서 CoT는 "왜 그렇게 생각했는지"보다 "어떤 선택지가 있고 무엇을 테스트해야 하는지"를 드러내는 데 더 가치가 있습니다.
템플릿 3: 글쓰기 구조 진단
아래 글 초안을 진단해줘.
목표 독자:
[독자]
글의 목적:
[설득/설명/기록/판매/교육]
검토 기준:
1. 첫 문단에서 읽을 이유가 생기는가
2. 핵심 주장이 두괄식으로 보이는가
3. 근거가 주장보다 약하지 않은가
4. 추상어가 너무 많지 않은가
5. 마지막에 다음 행동이 있는가
출력 형식:
- 한 줄 총평
- 가장 큰 문제 3개
- 삭제할 문장 유형
- 보강할 사례
- 새 목차
- 첫 문단 개선안
이 템플릿은 블로그 글, 뉴스 브리핑, 포트폴리오 소개문에 모두 쓸 수 있습니다.
템플릿 4: 의사결정 회의 준비
아래 안건을 회의 전에 정리해줘.
안건:
[회의 주제]
참석자:
[참석자와 관심사]
현재 쟁점:
[쟁점]
출력 형식:
1. 회의에서 먼저 합의해야 할 질문
2. 결정 가능한 것과 아직 결정하면 안 되는 것
3. 각 선택지의 장단점
4. 반대 의견 예상
5. 회의 후 액션 아이템
주의:
- 결론을 강요하지 말고 의사결정에 필요한 정보를 분리해줘.
회의용 CoT는 생각을 길게 하는 것이 아니라, 논점을 흐리지 않게 만드는 도구입니다.
템플릿 5: 리서치 요약 검증
아래 자료를 바탕으로 요약해줘.
자료:
[자료 붙여넣기]
요청:
- 핵심 주장
- 근거
- 반론 가능성
- 아직 확인되지 않은 부분
- 내가 추가로 찾아봐야 할 키워드
출력 형식:
| 항목 | 내용 | 확실성 | 추가 확인 |
|---|---|---|---|
주의:
- 자료에 없는 내용은 쓰지 마.
- 추론한 내용은 추론이라고 표시해줘.
리서치에서는 "그럴듯한 요약"보다 "어디까지 확실한지"가 더 중요합니다.
결과가 이상할 때 고치는 법
1. 답변이 너무 길 때
문제는 보통 출력 형식을 열어둔 데 있습니다.
답변을 5개 항목으로 제한해줘.
각 항목은 2문장 이하로 써줘.
표가 더 적합하면 표로만 정리해줘.
2. 답변이 너무 뻔할 때
판단 기준이 약한 것입니다.
일반론은 제외하고, 내 상황에서만 중요한 변수 5개를 뽑아줘.
누구나 할 수 있는 조언은 쓰지 말고, 실행했을 때 실패 가능성이 큰 지점을 중심으로 말해줘.
3. 근거가 약할 때
근거와 추정을 분리시킵니다.
각 주장 옆에 근거 유형을 표시해줘.
- 제공된 정보
- 일반 지식
- 추정
- 추가 확인 필요
4. 결론이 애매할 때
추천 기준을 강제로 정합니다.
추천 기준은 리스크 최소화야.
가장 안전한 선택을 하나만 고르고, 포기해야 할 것도 같이 말해줘.
실무 워크플로우
CoT를 한 번의 프롬프트로 끝내려고 하면 결과가 아쉽습니다. 아래 순서가 더 안정적입니다.
- 문제를 구조화한다.
- 선택지를 만든다.
- 선택지를 평가한다.
- 반례를 찾는다.
- 실행 계획으로 줄인다.
예시는 이렇습니다.
1단계: 이 문제를 의사결정 문제로 재정의해줘.
2단계: 가능한 선택지를 3개만 만들어줘.
3단계: 선택지를 비용/효과/리스크로 비교해줘.
4단계: 네 추천안이 틀릴 수 있는 이유를 찾아줘.
5단계: 이번 주에 할 수 있는 가장 작은 실행 계획으로 줄여줘.
이 방식은 답변을 더 길게 만들기 위한 것이 아닙니다. 결정까지 가는 길을 짧게 만드는 방식입니다.
체크리스트
- 결론을 먼저 요구했는가
- 판단 기준을 명시했는가
- 근거와 추정을 분리했는가
- 반례를 요청했는가
- 추가 확인할 정보를 남겼는가
- 다음 행동을 3개 이하로 줄였는가
- 표나 목록처럼 검수 가능한 형식으로 받았는가
주의할 점
CoT는 모델을 똑똑하게 만드는 버튼이 아닙니다. 질문을 검수 가능한 구조로 바꾸는 기술입니다.
특히 최신 reasoning 모델에서는 "생각 과정을 전부 보여줘"라는 요청이 항상 좋은 결과를 보장하지 않습니다. 오히려 결론, 근거, 반례, 확인 절차를 분리해달라고 하는 편이 더 실무적입니다.
또 하나 중요한 점은, CoT가 팩트 검증을 대신하지 않는다는 것입니다. 모델이 논리적으로 보이는 구조를 만들 수는 있지만, 그 안의 사실이 틀릴 수 있습니다. 숫자, 법률, 의료, 금융, 정책 정보는 반드시 원문과 대조해야 합니다.