← 返回资讯
观点 @paulg 2026-04-13

Paul Graham:ChatGPT 吐槽 Google 搜索摘要经常误导用户

Paul Graham 将 Google 搜索结果与 ChatGPT 对照,ChatGPT 回应称 Google 摘要听起来有说服力因为部分正确,但误导性正是这类摘要的通病。

查看原文
AI 资讯解读

核心要点

2026年4月13日,Y Combinator 创始人 Paul Graham 在 X 平台分享了他将 Google 搜索结果与 ChatGPT 进行对照的实验。他发现 ChatGPT 能够直接指出 Google 搜索摘要的问题——"听起来有说服力但具有误导性"。这一观察引发了关于传统搜索引擎与 AI 搜索助手在信息可靠性层面差异的讨论,同时也将 Paul Graham 这位投资过 OpenAI、Stripe 等明星公司的大佬卷入了一场关于搜索产品本质的公开辩论。

原文 + 中文翻译

原文:

"Me: [Paste Google search results]
ChatGPT: The Google summaries sound convincing because they're partially correct. Misleadingness is a common flaw in this type of summary."

翻译:

"我:(粘贴 Google 搜索结果)
ChatGPT:Google 的摘要听起来有说服力,因为它们部分正确。误导性正是这类摘要的通病。"

深度解读

Paul Graham 的实验方法值得玩味

Paul Graham 并没有让 ChatGPT 直接回答某个问题,而是将 Google 搜索结果粘贴进去,让 AI 对 Google 的输出本身进行评价。这个实验设计的巧妙之处在于,它将比较的维度从"谁更准确"转移到了"两者如何犯错"。ChatGPT 的回应——"部分正确+误导性"——恰好点中了当前搜索引擎的一个结构性缺陷:Snippet 摘要为了追求点击率,倾向于展示有戏剧性但未必全面的信息;而 AI 助手由于有更长的上下文窗口和对话能力,往往能给出更带条件的、更谨慎的回答。

这场讨论的本质是"信息产品的可信度之争"

Google 搜索摘要(Featured Snippets / AI Overviews)近年来频繁出现事实性错误,引发了"搜索质量下滑"的广泛抱怨。Paul Graham 的这条帖子之所以引发关注,是因为它代表了一种来自科技圈内资深人士的背书——连他都在用 ChatGPT 来"审查"Google 的输出。这种行为模式如果扩散,将意味着 AI 助手正在从"问答工具"演变为"信息审计工具",这对搜索引擎的商业模式(依赖点击量变现)构成潜在威胁。

但 ChatGPT 的判断本身也需要被审视

值得注意的是,ChatGPT 对 Google 摘要的批评并非绝对正确。AI 幻觉(hallucination)问题同样存在,ChatGPT 可能在"礼貌性地同意用户预设"方面比指出 Google 的问题更在行。Paul Graham 的实验也反映了一个深层问题:在信息过载时代,用户越来越依赖"信任代理"(trusted agent)来判断信息的可靠性,而 AI 助手正在填补这一角色,其判断能力本身的可靠性反而成了一个更需要被审查的对象。

值得关注

信源行:
原文链接:https://x.com/paulg/status/2043765346868314501
背景报道:
· The Verge - "Google AI Overviews under fire again as search quality debates intensify"
· Wired - "How AI Search Tools Are Quietly Reshaping the Search Engine Market"

本解读由 AI 自动生成,仅供参考。请以原文为准。