Toolify

リサーチ要約 プロンプト — 主張・根拠・矛盾を抽出

デフォルトの「要約して」は、ニュアンスのある研究の要点を失う散文要約を生む。本プロンプトは構造化オブジェクト — 主張、根拠の種類、出典位置、文書間の矛盾 — を抽出する。60秒でスキャンできる。

カテゴリ: research推奨モデル: claude / perplexity / chatgpt
prompt
下の文書を要約してください。散文ではなく構造化テーブルで出力。

各主要主張について抽出:
  - 主張: <1文>
  - 根拠の種類: <実証研究 / 理論的議論 / 専門家意見 / 逸話 / 未支持>
  - 出典: <文書名 + ページまたはセクション>
  - 強度: <強 / 中 / 弱 — 根拠の種類とサンプルサイズに基づく>
  - 留意事項: <文書自体が認める限界>

テーブル後、3セクションを追加:

1. 矛盾: 文書同士で食い違う箇所、または1文書の主張が別文書のデータと衝突する箇所を列挙。

2. 信頼度マップ: 各主要主張の総合信頼度を評価 — 高(複数の強い出典が一致)、中(1つの強い出典または複数の弱い出典)、低(単一の弱い出典または未支持)。

3. 不足: これらの文書を読んだ後、慎重な読者がまだ持つ疑問を3-5個。各々「これらの文書を更に読めば対応可」または「外部出典が必要」と分類。

厳格ルール:
- 各主張にページ番号またはセクション識別子を付ける。できなければ [page unknown] とマーク。
- 文書を超えて統合しない。2文書がトピックに触れていても直接比較していなければ、その旨記載 — 比較を捏造しない。
- 「文書はXと主張する」と「Xは真である」を区別。要約は主張されたことを報告し、正しいことではない。

文書:

[全文を貼るかPDFをアップロード]

使うべきタイミング

  • 文献レビューで5-10論文を読む際 — 各々をプロンプトに通し、信頼度マップを比較してコンセンサスとギャップを発見。
  • ベンダーから受けた業界レポート評価 — 強度列がレポートのどこがデータ駆動でどこがマーケティングかを露出。
  • ニュース記事の照合 — 記事+元の研究を投入、矛盾が即座に表面化。

モデル別ヒント

claude
主張と根拠の種類を区別するのが最も得意。「統合しない」ルールはClaude(Sonnet 4.6+)が最もよく守る。
perplexity
文書がオープンウェブにあるとき強い — Perplexityは出典検証を自動追加。プライベートPDFには不向き。
chatgpt
動くが「未支持」判定を「言及」に和らげる傾向。明示すること: 「データを引用せずに主張を提示する場合、合理的に聞こえても "未支持" を使う」。

例: 「リモートワークと生産性」3論文要約

| 主張 | 根拠 | 出典 | 強度 | 留意 |
|---|---|---|---|---|
| リモートワーカーは生産性が13%高いと自己申告 | 調査、n=2400 | Bloom 2024 p.7 | 中 | 自己申告バイアスを認める |
| リモートワークがチームのイノベーションを減らす | 質的インタビュー、n=42マネージャー | Smith 2023 p.14 | 弱 | サンプルがマネージャー偏重、ICではない |
| ハイブリッド(週3)が完全リモートに離職率で勝る | 1社内のA/Bテスト | Chen 2025 p.22 | 中 | 単一企業、汎化性に課題 |

矛盾:
- Bloom 2024は生産性向上を報告、Smith 2023は「イノベーション減少」経由で生産性低下を示唆。両者は生産性定義が違う — Bloom = 時間あたり産出、Smith = 戦略的産出。直接比較不可。

信頼度マップ:
- 「リモートワークが生産性を変える」 → 高(明確な効果、方向は議論中)
- 「リモートワークがイノベーションを減らす」 → 中(単一研究、質的)
- 「ハイブリッドが最適」 → 低(単一企業のA/B)

不足:
1. ジュニア従業員特有の効果 [外部出典必要]
2. 業界別の内訳 [対応可: Bloom 2024付録にデータあり]
3. 知識移転・メンタリングへの影響 [外部出典必要]

使い方の解説

なぜ散文要約は研究に向かないか

段落要約はすべての主張を同じ権威レベルに混ぜる。読者は「研究によると…」が、検出力不足の単一調査か、40試験のメタ分析かを区別できない。デフォルトのLLM要約はこの欠陥を継承し増幅 — 強い主張と弱い主張が同じ散文ウェイトで扱われる。

構造化抽出(テーブル+信頼度マップ)は主張の差分権威を保存する。スキャンすれば、見出しの発見が堅実な根拠に支えられている一方、二次的主張は本質的に社説だと即座に分かる。これが「情報を得ている」と「誤って自信を持っている」の違い。

最難ルール: 主張と真実の区別

デフォルト要約器は「文書XがYと言う」から「Yは真」へフラグなしで滑る。「主張と真実を区別」ルールが明示なのは、モデルがデフォルトで失敗するから。ルールが守られると、要約を読んでどの断定が文書のもので、どれがモデルの社説化かが正確に分かる。

モデルが違反したら(文書が主張しただけのXを事実として述べたら)「すべての主張を出典に帰属するよう書き換え」と返す。1度の修正でClaudeは残りで帰属を維持する傾向。

文書横断ワークフロー

文献レビューでは、まず各論文を個別に通す — モデル文脈制限と質の両方が1ドキュメント単位で恩恵を受ける。次に2回目で、結果テーブルだけ貼り「コンセンサス点、不一致点、最強の単一主張を特定」と聞く。すべての論文を一度に投入するよりはるかに高速。

「信頼度減衰」ルールを構築: 単一出典でしか出ない主張は、複数出典要約に統合される際、自動的に1段階格下げ。これは複製された発見を新規だが孤立した発見より重視させ、優れた学術慣行に合致する。

よくある質問

非常に長いPDFでも動く?

Claudeは200Kトークン PDFを一度に処理、ChatGPT/GPT-5は128K。それ以上は章単位で分割し各々要約、その要約をさらに要約。構造化フォーマットがパス間の品質を一定に保つ。

具体的な引用箇所を出せる?

可能 — プロンプトに「各主張について、原文の5-15語の引用スニペットを含める」を追加。文言が重要な時(法的文書、技術仕様)に有用。

ページ番号がない文書(ウェブ記事)では?

セクション見出しまたは段落番号で代替。プロンプトの「ページまたはセクション」がこれを許容。ウェブ記事には段落インデックス(「第5段落」)で十分。

NotebookLMとどう違う?

NotebookLMは文書アップロードと引用を自動処理、デフォルトで物語的要約を生成。本プロンプトは構造化抽出出力を生成、体系的比較に向く。両方使う: NotebookLMはチャット式探索、本プロンプトは書いて多くスキャンする要約。

「不足」セクションを強制する理由は?

すべてのリサーチ要約は完全性の幻想ではなく明示的フォローアップを残すべきだから。「不足」セクションは、文書が根本的にあなたの質問に答えられない時も明らかにする — さらに読む時間を費やす前に有用。

英語以外の研究で動く?

はい — Claudeと GPT-5は日本語/中国語/ドイツ語/フランス語の学術散文を上手く扱う。構造化出力はプロンプト言語のまま、出典言語は異なって良い。

ハルシネートしたページ番号を避けるには?

モデルがページ番号を出したら1-2箇所スポットチェック。間違えていたらプロンプトに「ページ番号が検証できなければ [page unknown] とマーク — 推測しない」を追加。

ポッドキャスト書き起こしで使える?

はい — 「ページ」を「タイムスタンプ」に置き換えて他はそのまま。構造化主張抽出はポッドキャストでさらに有用、明確マーカーなしの長散文中で主張が漂うので。

関連する計算ツール

関連プロンプト

最終更新: