사용자 인터뷰 프롬프트 — 과거 행동 기반, 유도 질문 금지
AI가 쓰는 인터뷰 스크립트 대부분은 위장된 유도 질문이다. '우리 기능이 어떻게 도움될까요?'가 아니라 '마지막에 이 문제를 만났을 때를 따라가 주세요'. 본 프롬프트는 과거 행동 프레이밍을 강제하고 가설을 금지하며 명시적 후속 전술을 제공한다.
30분 사용자 인터뷰 스크립트를 생성하세요.
인터뷰 목표: {배우고 싶은 것 — 구체적으로}
세그먼트: {대화할 사람 — 역할, 맥락, 현재 행동}
작업 가설 (선택): {지금 진실이라 믿는 것}
다음 구조로 스크립트 출력:
1. 워밍업 (3분): 현재 일상에 관한 개방형 질문 2개. 제품 언급 금지.
2. 과거 행동 섹션 (15분): 5-7개 질문, 각각 관련 행동의 마지막 사례에 앵커. 형식: '마지막에 ...했을 때를 따라가 주세요'.
각 질문에 인터뷰어가 준비할 후속 프로브 2-3개 나열.
3. 제약 섹션 (8분): 시도한 것, 지불한 것, 실패한 것에 대한 3-4개 질문. 진짜 수요를 예의에서 분리.
4. 마무리 (4분): 개방형 '안 물어본 것 중 듣고 싶은 것' 1개 + 감사.
엄격 규칙 (Mom Test):
1. '...하실 거예요?' '...라고 생각하세요?'로 시작하는 질문 금지 — 둘 다 예의 거짓을 부른다.
2. 자사 제품이나 가설 해결책 언급 금지.
3. 각 질문은 사실(무엇을 했는지) 또는 지불(돈/시간)을 표면화, 의견 아님.
4. 미래를 상상하지 않으면 답할 수 없는 질문은 과거에 대한 질문으로 다시 쓰기.
5. 후속은 구체로 파고든다: '얼마나 자주', '누가 지불', '실제로 무엇을 시도'.
스크립트만 반환. 각 후속을 [follow-up: ...]로 표시. 끝에 '인터뷰 중 적신호' 한 단락 — 데이터를 무효화할 징후(예: 참가자가 실제로 이 행동을 하지 않음을 시사) 나열.사용 시점
- 무엇을 만들기 전 — 5-10회의 이런 인터뷰가 수개월의 추측을 대체.
- 메트릭이 정체되고 이유를 모를 때 — 과거 행동 질문이 실제 결정 트리를 표면화.
- 가격 가설 검증 — 제약 섹션('얼마 지불')이 '얼마 지불하시겠어요'보다 정직.
모델별 팁
- claude
- 유도 질문 회피에 가장 능함. 요청 시 가설적 질문을 과거 행동 질문으로 다시 씀.
- chatgpt
- '하실 거예요' 표현이 슬며시 들어가는 경향. '하실 거예요 금지' 규칙이 가장 중요.
- any
- 묻기 편한 질문은 유도일 가능성. 스크립트는 약간 침범하는 느낌이어야 — 그렇게 진짜 데이터를 얻는다.
예: 개인 금융 도구 디스커버리 인터뷰
목표: 30대 중반 SaaS 직원이 실제로 개인 금융을 어떻게 추적하는지 이해.
워밍업 (3분)
- 일에 대해 — 평소 일상은?
- 월요일 아침 업무 시작 전 일반적 모습은?
과거 행동 (15분)
Q1: 마지막에 앉아서 은행 계좌를 본 시기, 무엇이 트리거?
[follow-up: 계획적 vs 반응적?]
[follow-up: 얼마나 걸렸나?]
Q2: 마지막에 500달러 초과 금융 결정 — 구매, 대기, 은행 전환 — 따라가 주세요.
[follow-up: 결정 전 무엇을 확인?]
[follow-up: 누구에게 상의?]
... [나머지 5개]
제약 (8분)
Q8: 마지막에 실제로 지불한 금융 도구는? 5달러라도. 멈추거나 계속한 이유?
... [나머지 3개]
마무리: 안 물어본 것 중 듣고 싶었던 것?
인터뷰 중 적신호:
- 참가자가 '하실 거예요' 발화 — 실제로 이 행동 안 함. 마지막 실 사례 탐문; 없으면 세그먼트가 문제를 갖지 않을 가능성.
- 숫자/날짜 모호('가끔 확인'). 모호 = 상상 행동. '마지막은 정확히 언제?'로 접지.작동 원리
왜 대부분의 AI 인터뷰 스크립트는 쓸모없는가
기본 LLM 출력 '인터뷰 스크립트 써줘'는 유도 질문 생성: '기능 X가 어떻게 도움?'. The Mom Test (Rob Fitzpatrick, 2014)는 20년 전 가설 질문은 예의를 얻을 뿐 데이터가 아님을 보였다. 실 사용자는 듣고 싶을 것 같은 말을 한다. 위 스크립트는 과거 행동 앵커링을 강제하여 사실에 도달.
후속 프로브도 동등 중요. '마지막에 이 문제 만났을 때를 따라가 주세요'는 기본 30초 답변. 프로브('먼저 무엇 확인', '누가 지불', '얼마나')가 30초를 5분의 유용한 세부로 변환.
출력 활용
스크립트 변경 전 5회 인터뷰 실행. 패턴은 3-4회차에 등장. 5회차까지 어느 질문이 좋은 데이터를 얻고 어느 질문이 예의 필러를 얻는지 알 수 있음 — 예의 필러 질문 제거, 좋은 질문에 구체 후속 추가.
5-7회 인터뷰 후 리서치 요약 프롬프트로 통과시켜 주장과 모순 추출. 조합(인터뷰 스크립트 → 구조화 요약 → 주장 매핑)은 모든 트랜스크립트를 읽고 패턴을 기억하려는 것보다 훨씬 빠름.
자주 묻는 질문
›왜 '하실 거예요' 질문 없음?
면대면으로 설명된 기능에는 누구나 예라고 한다. 가설은 예의를, 과거 행동은 사실을 부른다. 인터뷰 품질 단일 최대 개선은 스크립트에서 모든 '하실 거예요'를 제거하는 것.
›제품이 아직 없으면?
오히려 좋음 — 편향시킬 게 없다. 모든 질문이 기존 페인과 현재 솔루션에 대한 것. 디스커버리 인터뷰의 본래 용도.
›몇 번의 인터뷰 필요?
세그먼트당 5-12회가 일반적. 5회에 패턴이 들림. 그 이상은 새로운 발견이 아닌 패턴 정제 — 새 세그먼트 연구가 아니면 ~10회 후 수익 체감.
›참가자가 주제 이탈하면?
종종 금광. 진짜 페인은 대화를 탈선시키고 편한 답은 그렇지 않다. 2-3분 자유롭게 말하게 하고 메모, 다리 놓아 복귀: 'X에 대해 더 — 그것이 Y한 시기와 같았나요?'
›가설을 미리 공유?
아니오. 모호한 용어로 목표 전달('X를 어떻게 다루는지 연구 중'). 구체적 가설 공유는 답변에 편향.
›사용성 테스트에 사용?
다른 목표 — 사용성 테스트는 작업 스크립트 필요, 디스커버리 스크립트 아님. 중복(유도 안 함, 행동 관찰)이 있으나 형식 다름. 사용성 프롬프트는 별도 발행.
관련 계산기
관련 프롬프트
최종 수정: