研究總結 提示詞 — 抽取主張、證據、矛盾
預設「總結一下」會產出有損的散文式摘要,把所有微妙之處的要點都丟失。本提示詞抽取一個結構化物件 — 主張、證據型別、來源位置、文件間的矛盾 — 讓你 60 秒掃完。
請總結下面的文件。以結構化表格輸出,不用散文。 對每個主要主張,抽取: - 主張: <一句話> - 證據型別: <實證研究 / 理論論證 / 專家意見 / 軼事 / 無支撐> - 來源: <文件名 + 頁碼或章節> - 強度: <強 / 中 / 弱 — 基於證據型別與樣本規模> - 注意點: <來源自身承認的侷限> 表格之後加三節: 1. 矛盾: 列出文件之間不一致或一份文件的主張與另一份的資料衝突的地方。 2. 信心地圖: 評定各主要主張的總體可信度 — 高 (多個強來源一致)、中 (一個強來源或多個弱來源)、低 (單個弱來源或無支撐)。 3. 缺什麼: 一個細心讀者讀完這些文件後仍會有的 3-5 個問題。每個標記為「這些文件進一步閱讀可解決」或「需要外部來源」。 硬性規則: - 每個主張都要標頁碼或章節。無法標的寫 [page unknown]。 - 不要在文件之上做綜合。兩個文件觸及同一話題但沒直接對比時,如實說明 — 不要捏造對比。 - 區分「文件主張 X」和「X 是真」。摘要報告被主張的內容,而不是正確的內容。 文件: [貼上全文或上傳 PDF]
什麼時候用
- 做文獻綜述讀 5-10 篇論文 — 每篇過一遍本提示詞,然後比較信心地圖找共識與缺口。
- 評估供應商給的行業報告 — 強度列暴露報告哪裡資料驅動、哪裡在做營銷。
- 核對新聞報道 — 把報道+底層研究都喂進去,矛盾會立刻浮出。
模型提示
- claude
- 最善於區分主張和證據型別。「不要綜合」規則被 Claude (Sonnet 4.6+) 守得最好。
- perplexity
- 文件在公網時強 — Perplexity 自動加來源驗證。私有 PDF 用處小。
- chatgpt
- 可用,但傾向把「無支撐」判定軟化為「提及」。請明示: 「文件未引用資料就提出主張時,即使聽上去合理也用 "無支撐"」。
示例: 三篇關於遠端辦公生產力的論文
| 主張 | 證據 | 來源 | 強度 | 注意 | |---|---|---|---|---| | 遠端工作者自報生產力高 13% | 調查、n=2400 | Bloom 2024 p.7 | 中 | 自報偏差已宣告 | | 遠端降低團隊創新 | 定性訪談、n=42 經理 | Smith 2023 p.14 | 弱 | 樣本偏經理,非 IC | | 混合 (一週 3 天) 在留任率上勝過全遠端 | 一家公司的 A/B | Chen 2025 p.22 | 中 | 單家公司,泛化性疑 | 矛盾: - Bloom 2024 報告生產力上升;Smith 2023 透過「創新下降」暗示生產力下降。兩者生產力定義不同 — Bloom = 單位時間產出,Smith = 戰略產出。直接不可比。 信心地圖: - 「遠端改變生產力」 → 高 (效應明確,方向有爭議) - 「遠端降低創新」 → 中 (單一研究,定性) - 「混合最優」 → 低 (單家公司 A/B) 缺什麼: 1. 對初級員工的特定影響 [需外部來源] 2. 行業級細分 [可解決: Bloom 2024 附錄有資料] 3. 對知識轉移/導師制的影響 [需外部來源]
運作原理
為什麼散文摘要不適合研究
段落式摘要把所有主張混到同一權威級別。讀者無法分辨「研究表明…」是基於一個統計力不足的調查,還是 40 個試驗的元分析。預設 LLM 摘要繼承並放大這個缺陷 — 強主張和弱主張在散文中權重一樣。
結構化抽取 (表格 + 信心地圖) 保留主張的差異化權威。一掃就能看出,標題發現建立在紮實證據之上,而二級主張本質是社論。這是「掌握資訊」與「錯誤自信」的區別。
最難的規則: 區分主張與真實
預設摘要器會從「文件 X 說 Y」滑到「Y 是真的」,而不標記過渡。「區分主張與真實」規則是顯式的,因為模型預設會失敗。規則被守住時,你讀完摘要能精確知道哪些斷言來自文件,哪些是模型的社論化。
若模型違反 (把文件只是主張的 X 當成事實陳述),回覆「請把每個主張歸屬到來源」。一次糾正後,Claude 通常會在文件剩餘部分保持歸屬。
跨文件工作流
做文獻綜述時,先逐篇過 — 模型上下文限制和質量都從一篇一篇做中受益。然後第二輪,只貼上生成的表格,問: 「找出共識點、分歧點、和最強的單一主張」。這遠比一次喂入所有論文快。
建立「信心衰減」規則: 任何只在一個來源出現的主張,合併到多來源摘要時自動降一級。這迫使整合綜述把可重複發現的權重高於新穎但孤立的發現 — 符合好的學術實踐。
常見問題
›對超長 PDF 也行嗎?
Claude 單次處理 20 萬 token PDF;ChatGPT/GPT-5 能處理 12.8 萬。再長就按章節分,各自摘要,再摘要這些摘要。結構化格式讓多輪間質量保持一致。
›能引具體原文嗎?
可以 — 在提示詞里加「每個主張附 5-15 字的原文引用片段」。在用詞重要時 (法律檔案、技術規格) 有用。
›文件沒有清晰頁碼 (網頁文章) 怎麼辦?
用章節標題或段落編號代替。提示詞裡的「頁碼或章節」允許這個。網頁文章用段落索引 (「第 5 段」) 即可。
›和 NotebookLM 比起來如何?
NotebookLM 自動處理上傳和引用,但預設產出敘事式摘要。本提示詞產出結構化抽取,更適合系統性比較。兩個都用: NotebookLM 做對話式探索,本提示詞做寫一次掃多次的摘要。
›為什麼強制「缺什麼」節?
因為每份研究摘要都應該留下顯式後續,不該給完整性的假象。「缺什麼」節也會暴露文件根本無法回答你的問題 — 在花更多時間讀它之前很有用。
›對非英語研究有效嗎?
有效 — Claude 和 GPT-5 處理日/中/德/法學術散文都不錯。結構化輸出保留你提示詞的語言,來源語言可以不同。
›怎麼避免幻覺的頁碼?
若模型給頁碼,抽樣核對 1-2 個。若錯了,在提示詞加「無法驗證頁碼就標 [page unknown] — 永不猜」。
›能用於播客文字稿嗎?
可以 — 把「頁碼」改成「時間戳」,其他不變。結構化主張抽取在播客裡更有用,因為論點漂浮在沒明顯標記的長散文中。
相關計算器
相關提示詞
最後更新: