Toolify

사용자 인터뷰 프롬프트 — 과거 행동 기반, 유도 질문 금지

AI가 쓰는 인터뷰 스크립트 대부분은 위장된 유도 질문이다. '우리 기능이 어떻게 도움될까요?'가 아니라 '마지막에 이 문제를 만났을 때를 따라가 주세요'. 본 프롬프트는 과거 행동 프레이밍을 강제하고 가설을 금지하며 명시적 후속 전술을 제공한다.

카테고리: research추천 모델: claude / chatgpt / any
prompt
30분 사용자 인터뷰 스크립트를 생성하세요.

인터뷰 목표: {배우고 싶은 것 — 구체적으로}
세그먼트: {대화할 사람 — 역할, 맥락, 현재 행동}
작업 가설 (선택): {지금 진실이라 믿는 것}

다음 구조로 스크립트 출력:

1. 워밍업 (3분): 현재 일상에 관한 개방형 질문 2개. 제품 언급 금지.
2. 과거 행동 섹션 (15분): 5-7개 질문, 각각 관련 행동의 마지막 사례에 앵커. 형식: '마지막에 ...했을 때를 따라가 주세요'.
   각 질문에 인터뷰어가 준비할 후속 프로브 2-3개 나열.
3. 제약 섹션 (8분): 시도한 것, 지불한 것, 실패한 것에 대한 3-4개 질문. 진짜 수요를 예의에서 분리.
4. 마무리 (4분): 개방형 '안 물어본 것 중 듣고 싶은 것' 1개 + 감사.

엄격 규칙 (Mom Test):
1. '...하실 거예요?' '...라고 생각하세요?'로 시작하는 질문 금지 — 둘 다 예의 거짓을 부른다.
2. 자사 제품이나 가설 해결책 언급 금지.
3. 각 질문은 사실(무엇을 했는지) 또는 지불(돈/시간)을 표면화, 의견 아님.
4. 미래를 상상하지 않으면 답할 수 없는 질문은 과거에 대한 질문으로 다시 쓰기.
5. 후속은 구체로 파고든다: '얼마나 자주', '누가 지불', '실제로 무엇을 시도'.

스크립트만 반환. 각 후속을 [follow-up: ...]로 표시. 끝에 '인터뷰 중 적신호' 한 단락 — 데이터를 무효화할 징후(예: 참가자가 실제로 이 행동을 하지 않음을 시사) 나열.

사용 시점

  • 무엇을 만들기 전 — 5-10회의 이런 인터뷰가 수개월의 추측을 대체.
  • 메트릭이 정체되고 이유를 모를 때 — 과거 행동 질문이 실제 결정 트리를 표면화.
  • 가격 가설 검증 — 제약 섹션('얼마 지불')이 '얼마 지불하시겠어요'보다 정직.

모델별 팁

claude
유도 질문 회피에 가장 능함. 요청 시 가설적 질문을 과거 행동 질문으로 다시 씀.
chatgpt
'하실 거예요' 표현이 슬며시 들어가는 경향. '하실 거예요 금지' 규칙이 가장 중요.
any
묻기 편한 질문은 유도일 가능성. 스크립트는 약간 침범하는 느낌이어야 — 그렇게 진짜 데이터를 얻는다.

예: 개인 금융 도구 디스커버리 인터뷰

목표: 30대 중반 SaaS 직원이 실제로 개인 금융을 어떻게 추적하는지 이해.

워밍업 (3분)
  - 일에 대해 — 평소 일상은?
  - 월요일 아침 업무 시작 전 일반적 모습은?

과거 행동 (15분)
  Q1: 마지막에 앉아서 은행 계좌를 본 시기, 무엇이 트리거?
    [follow-up: 계획적 vs 반응적?]
    [follow-up: 얼마나 걸렸나?]
  Q2: 마지막에 500달러 초과 금융 결정 — 구매, 대기, 은행 전환 — 따라가 주세요.
    [follow-up: 결정 전 무엇을 확인?]
    [follow-up: 누구에게 상의?]
  ... [나머지 5개]

제약 (8분)
  Q8: 마지막에 실제로 지불한 금융 도구는? 5달러라도. 멈추거나 계속한 이유?
  ... [나머지 3개]

마무리: 안 물어본 것 중 듣고 싶었던 것?

인터뷰 중 적신호:
- 참가자가 '하실 거예요' 발화 — 실제로 이 행동 안 함. 마지막 실 사례 탐문; 없으면 세그먼트가 문제를 갖지 않을 가능성.
- 숫자/날짜 모호('가끔 확인'). 모호 = 상상 행동. '마지막은 정확히 언제?'로 접지.

작동 원리

왜 대부분의 AI 인터뷰 스크립트는 쓸모없는가

기본 LLM 출력 '인터뷰 스크립트 써줘'는 유도 질문 생성: '기능 X가 어떻게 도움?'. The Mom Test (Rob Fitzpatrick, 2014)는 20년 전 가설 질문은 예의를 얻을 뿐 데이터가 아님을 보였다. 실 사용자는 듣고 싶을 것 같은 말을 한다. 위 스크립트는 과거 행동 앵커링을 강제하여 사실에 도달.

후속 프로브도 동등 중요. '마지막에 이 문제 만났을 때를 따라가 주세요'는 기본 30초 답변. 프로브('먼저 무엇 확인', '누가 지불', '얼마나')가 30초를 5분의 유용한 세부로 변환.

출력 활용

스크립트 변경 전 5회 인터뷰 실행. 패턴은 3-4회차에 등장. 5회차까지 어느 질문이 좋은 데이터를 얻고 어느 질문이 예의 필러를 얻는지 알 수 있음 — 예의 필러 질문 제거, 좋은 질문에 구체 후속 추가.

5-7회 인터뷰 후 리서치 요약 프롬프트로 통과시켜 주장과 모순 추출. 조합(인터뷰 스크립트 → 구조화 요약 → 주장 매핑)은 모든 트랜스크립트를 읽고 패턴을 기억하려는 것보다 훨씬 빠름.

자주 묻는 질문

왜 '하실 거예요' 질문 없음?

면대면으로 설명된 기능에는 누구나 예라고 한다. 가설은 예의를, 과거 행동은 사실을 부른다. 인터뷰 품질 단일 최대 개선은 스크립트에서 모든 '하실 거예요'를 제거하는 것.

제품이 아직 없으면?

오히려 좋음 — 편향시킬 게 없다. 모든 질문이 기존 페인과 현재 솔루션에 대한 것. 디스커버리 인터뷰의 본래 용도.

몇 번의 인터뷰 필요?

세그먼트당 5-12회가 일반적. 5회에 패턴이 들림. 그 이상은 새로운 발견이 아닌 패턴 정제 — 새 세그먼트 연구가 아니면 ~10회 후 수익 체감.

참가자가 주제 이탈하면?

종종 금광. 진짜 페인은 대화를 탈선시키고 편한 답은 그렇지 않다. 2-3분 자유롭게 말하게 하고 메모, 다리 놓아 복귀: 'X에 대해 더 — 그것이 Y한 시기와 같았나요?'

가설을 미리 공유?

아니오. 모호한 용어로 목표 전달('X를 어떻게 다루는지 연구 중'). 구체적 가설 공유는 답변에 편향.

사용성 테스트에 사용?

다른 목표 — 사용성 테스트는 작업 스크립트 필요, 디스커버리 스크립트 아님. 중복(유도 안 함, 행동 관찰)이 있으나 형식 다름. 사용성 프롬프트는 별도 발행.

관련 계산기

관련 프롬프트

최종 수정: