リサーチ要約 プロンプト — 主張・根拠・矛盾を抽出
デフォルトの「要約して」は、ニュアンスのある研究の要点を失う散文要約を生む。本プロンプトは構造化オブジェクト — 主張、根拠の種類、出典位置、文書間の矛盾 — を抽出する。60秒でスキャンできる。
下の文書を要約してください。散文ではなく構造化テーブルで出力。 各主要主張について抽出: - 主張: <1文> - 根拠の種類: <実証研究 / 理論的議論 / 専門家意見 / 逸話 / 未支持> - 出典: <文書名 + ページまたはセクション> - 強度: <強 / 中 / 弱 — 根拠の種類とサンプルサイズに基づく> - 留意事項: <文書自体が認める限界> テーブル後、3セクションを追加: 1. 矛盾: 文書同士で食い違う箇所、または1文書の主張が別文書のデータと衝突する箇所を列挙。 2. 信頼度マップ: 各主要主張の総合信頼度を評価 — 高(複数の強い出典が一致)、中(1つの強い出典または複数の弱い出典)、低(単一の弱い出典または未支持)。 3. 不足: これらの文書を読んだ後、慎重な読者がまだ持つ疑問を3-5個。各々「これらの文書を更に読めば対応可」または「外部出典が必要」と分類。 厳格ルール: - 各主張にページ番号またはセクション識別子を付ける。できなければ [page unknown] とマーク。 - 文書を超えて統合しない。2文書がトピックに触れていても直接比較していなければ、その旨記載 — 比較を捏造しない。 - 「文書はXと主張する」と「Xは真である」を区別。要約は主張されたことを報告し、正しいことではない。 文書: [全文を貼るかPDFをアップロード]
使うべきタイミング
- 文献レビューで5-10論文を読む際 — 各々をプロンプトに通し、信頼度マップを比較してコンセンサスとギャップを発見。
- ベンダーから受けた業界レポート評価 — 強度列がレポートのどこがデータ駆動でどこがマーケティングかを露出。
- ニュース記事の照合 — 記事+元の研究を投入、矛盾が即座に表面化。
モデル別ヒント
- claude
- 主張と根拠の種類を区別するのが最も得意。「統合しない」ルールはClaude(Sonnet 4.6+)が最もよく守る。
- perplexity
- 文書がオープンウェブにあるとき強い — Perplexityは出典検証を自動追加。プライベートPDFには不向き。
- chatgpt
- 動くが「未支持」判定を「言及」に和らげる傾向。明示すること: 「データを引用せずに主張を提示する場合、合理的に聞こえても "未支持" を使う」。
例: 「リモートワークと生産性」3論文要約
| 主張 | 根拠 | 出典 | 強度 | 留意 | |---|---|---|---|---| | リモートワーカーは生産性が13%高いと自己申告 | 調査、n=2400 | Bloom 2024 p.7 | 中 | 自己申告バイアスを認める | | リモートワークがチームのイノベーションを減らす | 質的インタビュー、n=42マネージャー | Smith 2023 p.14 | 弱 | サンプルがマネージャー偏重、ICではない | | ハイブリッド(週3)が完全リモートに離職率で勝る | 1社内のA/Bテスト | Chen 2025 p.22 | 中 | 単一企業、汎化性に課題 | 矛盾: - Bloom 2024は生産性向上を報告、Smith 2023は「イノベーション減少」経由で生産性低下を示唆。両者は生産性定義が違う — Bloom = 時間あたり産出、Smith = 戦略的産出。直接比較不可。 信頼度マップ: - 「リモートワークが生産性を変える」 → 高(明確な効果、方向は議論中) - 「リモートワークがイノベーションを減らす」 → 中(単一研究、質的) - 「ハイブリッドが最適」 → 低(単一企業のA/B) 不足: 1. ジュニア従業員特有の効果 [外部出典必要] 2. 業界別の内訳 [対応可: Bloom 2024付録にデータあり] 3. 知識移転・メンタリングへの影響 [外部出典必要]
使い方の解説
なぜ散文要約は研究に向かないか
段落要約はすべての主張を同じ権威レベルに混ぜる。読者は「研究によると…」が、検出力不足の単一調査か、40試験のメタ分析かを区別できない。デフォルトのLLM要約はこの欠陥を継承し増幅 — 強い主張と弱い主張が同じ散文ウェイトで扱われる。
構造化抽出(テーブル+信頼度マップ)は主張の差分権威を保存する。スキャンすれば、見出しの発見が堅実な根拠に支えられている一方、二次的主張は本質的に社説だと即座に分かる。これが「情報を得ている」と「誤って自信を持っている」の違い。
最難ルール: 主張と真実の区別
デフォルト要約器は「文書XがYと言う」から「Yは真」へフラグなしで滑る。「主張と真実を区別」ルールが明示なのは、モデルがデフォルトで失敗するから。ルールが守られると、要約を読んでどの断定が文書のもので、どれがモデルの社説化かが正確に分かる。
モデルが違反したら(文書が主張しただけのXを事実として述べたら)「すべての主張を出典に帰属するよう書き換え」と返す。1度の修正でClaudeは残りで帰属を維持する傾向。
文書横断ワークフロー
文献レビューでは、まず各論文を個別に通す — モデル文脈制限と質の両方が1ドキュメント単位で恩恵を受ける。次に2回目で、結果テーブルだけ貼り「コンセンサス点、不一致点、最強の単一主張を特定」と聞く。すべての論文を一度に投入するよりはるかに高速。
「信頼度減衰」ルールを構築: 単一出典でしか出ない主張は、複数出典要約に統合される際、自動的に1段階格下げ。これは複製された発見を新規だが孤立した発見より重視させ、優れた学術慣行に合致する。
よくある質問
›非常に長いPDFでも動く?
Claudeは200Kトークン PDFを一度に処理、ChatGPT/GPT-5は128K。それ以上は章単位で分割し各々要約、その要約をさらに要約。構造化フォーマットがパス間の品質を一定に保つ。
›具体的な引用箇所を出せる?
可能 — プロンプトに「各主張について、原文の5-15語の引用スニペットを含める」を追加。文言が重要な時(法的文書、技術仕様)に有用。
›ページ番号がない文書(ウェブ記事)では?
セクション見出しまたは段落番号で代替。プロンプトの「ページまたはセクション」がこれを許容。ウェブ記事には段落インデックス(「第5段落」)で十分。
›NotebookLMとどう違う?
NotebookLMは文書アップロードと引用を自動処理、デフォルトで物語的要約を生成。本プロンプトは構造化抽出出力を生成、体系的比較に向く。両方使う: NotebookLMはチャット式探索、本プロンプトは書いて多くスキャンする要約。
›「不足」セクションを強制する理由は?
すべてのリサーチ要約は完全性の幻想ではなく明示的フォローアップを残すべきだから。「不足」セクションは、文書が根本的にあなたの質問に答えられない時も明らかにする — さらに読む時間を費やす前に有用。
›英語以外の研究で動く?
はい — Claudeと GPT-5は日本語/中国語/ドイツ語/フランス語の学術散文を上手く扱う。構造化出力はプロンプト言語のまま、出典言語は異なって良い。
›ハルシネートしたページ番号を避けるには?
モデルがページ番号を出したら1-2箇所スポットチェック。間違えていたらプロンプトに「ページ番号が検証できなければ [page unknown] とマーク — 推測しない」を追加。
›ポッドキャスト書き起こしで使える?
はい — 「ページ」を「タイムスタンプ」に置き換えて他はそのまま。構造化主張抽出はポッドキャストでさらに有用、明確マーカーなしの長散文中で主張が漂うので。
関連する計算ツール
関連プロンプト
最終更新: