Toolify

리서치 요약 프롬프트 — 주장·근거·모순 추출

기본 '요약해줘'는 손실 많은 산문 요약을 만들고 미묘한 연구의 요점을 잃는다. 본 프롬프트는 구조화 객체 — 주장, 근거 종류, 출처 위치, 문서 간 모순 — 를 추출한다. 60초에 스캔 가능.

카테고리: research추천 모델: claude / perplexity / chatgpt
prompt
아래 문서를 요약하세요. 산문 아닌 구조화 테이블로 출력.

각 주요 주장에 대해 추출:
  - 주장: <한 문장>
  - 근거 종류: <실증 연구 / 이론적 논증 / 전문가 의견 / 일화 / 무근거>
  - 출처: <문서명 + 페이지 또는 섹션>
  - 강도: <강 / 중 / 약 — 근거 종류와 표본 크기 기반>
  - 유의사항: <문서 자체가 인정하는 한계>

테이블 후 3 섹션 추가:

1. 모순: 문서 간 의견 차이가 있거나 한 문서의 주장이 다른 문서의 데이터와 충돌하는 곳 나열.

2. 신뢰도 맵: 각 주요 주장의 전체 신뢰도 평가 — 높음 (다수 강한 출처 일치), 중간 (단일 강한 출처 또는 다수 약한 출처), 낮음 (단일 약한 출처 또는 무근거).

3. 누락: 신중한 독자가 이 문서들을 읽고도 가질 3-5 질문. 각각 '이 문서들의 추가 독서로 해결 가능' 또는 '외부 출처 필요'로 분류.

엄격 규칙:
- 모든 주장에 페이지 번호나 섹션 식별자 인용. 못 하면 [page unknown] 마크.
- 문서를 넘어 종합하지 말 것. 두 문서가 한 주제에 닿아 있으나 직접 비교하지 않으면 그렇게 명시 — 비교를 지어내지 말 것.
- '문서가 X를 주장한다'와 'X는 진실이다'를 구분. 요약은 주장된 바를 보고하지, 옳은 바를 보고하지 않음.

문서:

[전문 붙여넣기 또는 PDF 업로드]

사용 시점

  • 문헌 검토로 5-10 논문 읽기 — 각각 본 프롬프트에 통과시키고 신뢰도 맵 비교로 합의와 갭 발견.
  • 벤더가 준 산업 보고서 평가 — 강도 열이 보고서가 어디까지 데이터 주도이고 어디부터 마케팅인지 노출.
  • 뉴스 기사 교차 점검 — 기사+근거 연구 함께 투입, 모순 즉시 표면화.

모델별 팁

claude
주장과 근거 종류 구분에 가장 능함. '종합 금지' 규칙은 Claude (Sonnet 4.6+)가 가장 잘 지킴.
perplexity
문서가 공개 웹에 있을 때 강함 — Perplexity가 출처 검증 자동 추가. 사설 PDF엔 덜 유용.
chatgpt
동작하나 '무근거' 판정을 '언급'으로 부드럽게 만드는 경향. 명시 필요: '문서가 데이터 인용 없이 주장을 제시하면, 합리적으로 들려도 "무근거" 사용'.

예: '원격 근무와 생산성' 3 논문 요약

| 주장 | 근거 | 출처 | 강도 | 유의 |
|---|---|---|---|---|
| 원격 근무자 생산성 13% 자기 보고 | 설문, n=2400 | Bloom 2024 p.7 | 중 | 자기 보고 편향 인정됨 |
| 원격 근무가 팀 혁신을 줄임 | 정성 인터뷰, n=42 매니저 | Smith 2023 p.14 | 약 | 표본 매니저 편중, IC 아님 |
| 하이브리드 (주 3) 가 완전 원격을 잔존율에서 능가 | 1개사 A/B 테스트 | Chen 2025 p.22 | 중 | 단일 회사, 일반화 가능성 우려 |

모순:
- Bloom 2024는 생산성 향상 보고; Smith 2023은 '혁신 감소'로 생산성 저하 시사. 양자는 생산성 정의가 다름 — Bloom = 시간당 산출, Smith = 전략 산출. 직접 비교 불가.

신뢰도 맵:
- '원격 근무가 생산성 변화' → 높음 (효과 명확, 방향 논쟁)
- '원격 근무가 혁신 감소' → 중간 (단일 연구, 정성)
- '하이브리드 최적' → 낮음 (단일 회사 A/B)

누락:
1. 주니어 직원에 대한 특정 효과 [외부 출처 필요]
2. 산업별 분석 [해결 가능: Bloom 2024 부록에 데이터]
3. 지식 전수/멘토링에 대한 영향 [외부 출처 필요]

작동 원리

왜 산문 요약은 연구에 실패하는가

단락 요약은 모든 주장을 동일 권위 수준에 섞는다. 독자는 '연구는…' 다음이 검정력 부족 단일 설문에 의해 뒷받침되는지 40 시험 메타분석에 의해 뒷받침되는지 알 수 없다. 기본 LLM 요약은 이 결함을 계승하고 증폭한다 — 강 주장과 약 주장이 같은 산문 가중치.

구조화 추출 (테이블 + 신뢰도 맵)은 주장의 차등 권위를 보존. 헤드라인 발견이 견고한 근거 위에 있으나 이차적 주장이 본질적 사설임을 즉시 본다. 이것이 정보를 갖춘 vs 잘못 자신감 있는의 차이.

가장 어려운 규칙: 주장과 진실 구분

기본 요약기는 '문서 X가 Y라고 한다'에서 'Y는 진실이다'로 플래그 없이 미끄러진다. '주장과 진실 구분' 규칙이 명시적인 이유는 모델이 기본적으로 실패하기 때문. 규칙이 지켜지면 요약을 읽고 어떤 단언이 문서의 것이고 모델의 사설화가 아닌지 정확히 안다.

모델이 위반하면 (문서가 주장만 한 X를 사실로 진술하면) '모든 주장을 출처에 귀속시켜 다시 표현'으로 응답. 한 번 수정 후 Claude는 보통 문서 나머지에서 귀속을 유지.

문서 횡단 워크플로

문헌 검토에서는 먼저 각 논문을 개별 통과 — 모델 컨텍스트 한계와 품질 모두 한 문서씩 처리에서 이득. 그다음 두 번째 패스에서 결과 테이블만 붙여 넣고 '합의점, 불일치점, 가장 강한 단일 주장 식별'을 묻기. 모든 논문을 한 번에 투입하는 것보다 훨씬 빠름.

'신뢰도 감쇠' 규칙 구축: 단일 출처에만 등장한 주장은 다중 출처 요약에 통합 시 자동으로 한 단계 강등. 통합 검토가 복제된 발견을 새롭지만 고립된 발견보다 더 무겁게 가중하도록 강제 — 좋은 학술 관행과 일치.

자주 묻는 질문

매우 긴 PDF에서도 동작?

Claude는 200K 토큰 PDF 한 번에 처리; ChatGPT/GPT-5는 128K. 그 이상은 챕터별 분할 후 각 요약, 그 요약들을 다시 요약. 구조화 형식이 패스 간 품질 일관 유지.

구체적 인용 가능?

예 — 프롬프트에 '각 주장에 5-15단어 원문 인용 스니펫 포함' 추가. 표현이 중요한 경우 (법적 문서, 기술 사양)에 유용.

페이지 번호 없는 문서 (웹 기사) 는?

섹션 헤딩이나 단락 번호로 대체. 프롬프트의 '페이지 또는 섹션'이 이를 허용. 웹 기사엔 단락 인덱스 ('5단락') 충분.

NotebookLM과 비교?

NotebookLM은 문서 업로드와 인용을 자동 처리하나 기본 서사 요약 생성. 본 프롬프트는 체계적 비교에 더 적합한 구조화 추출 출력 생성. 둘 다 사용: NotebookLM은 채팅식 탐색, 본 프롬프트는 한 번 쓰고 여러 번 스캔하는 요약.

왜 '누락' 섹션 강제?

모든 리서치 요약은 완전성의 잘못된 인상이 아닌 명시적 후속을 남겨야 하므로. '누락' 섹션은 또한 문서가 근본적으로 당신의 질문에 답할 수 없을 때를 드러냄 — 더 읽는 시간을 쓰기 전에 유용.

비영어 연구에서 동작?

예 — Claude와 GPT-5는 일/중/독/불 학술 산문을 잘 다룸. 구조화 출력은 프롬프트 언어로 유지, 출처 언어는 다를 수 있음.

환각된 페이지 번호 회피는?

모델이 페이지 번호를 주면 1-2개 스폿 체크. 틀렸다면 프롬프트에 '페이지 번호를 검증할 수 없으면 [page unknown] 마크 — 추측 금지' 추가.

팟캐스트 트랜스크립트 사용 가능?

예 — '페이지'를 '타임스탬프'로 교체, 나머지는 동작. 구조화 주장 추출은 명확한 마커 없는 긴 산문에서 주장이 떠도는 팟캐스트에 더 유용.

관련 계산기

관련 프롬프트

최종 수정: