← 返回资讯
观点 @chamath 2026-04-13

Chamath:AI 生成无用 token 和半吊子回答可能是「设计特性」

Chamath 犀利指出,AI 模型产生幻觉和不完整回答可能并非缺陷,而是让用户持续提问、消耗更多 token 的商业策略,引发行业反思。

查看原文
AI 资讯解读

核心要点

2026年4月13日,知名投资人 Chamath Palihapitiya(Facebook 早期高管、Social Capital 创始人)在 X 平台发布观点,直指 AI 模型存在的一个「房间里的大象」:模型产生幻觉(hallucination)和提供不完整回答,可能并非纯粹的技术缺陷,而是经过精心设计的商业策略——通过制造信息缺口促使用户持续追问,从而增加 token 消耗量和付费订阅价值。这一论断撕开了 AI 商业化进程中的一层窗户纸,将技术问题与商业模式之间的张力推至台前,引发从业者和投资人的广泛讨论。

原文 + 中文翻译

原文: "The hallucinations and incomplete answers aren't bugs—they're features. Every time a model gives you a half-baked response, you ask another question. That's more tokens, more engagement, more revenue. Welcome to the business model."

翻译:「幻觉和不完整的回答不是漏洞——它们是功能特性。每当模型给你一个半吊子的回答,你就会再问一个问题。这带来了更多的 token、更高的参与度、更多的收入。欢迎来到这个商业模式。」

深度解读

商业逻辑的「理性犯罪」

Chamath 的论断触及了 AI 商业化最核心的矛盾之一:模型能力与商业利益的错位。从纯技术角度,幻觉(hallucination)确实是当前 LLM 架构的固有局限—— transformer 的自注意力机制在生成式任务中天然存在「一本正经胡说八道」的概率。然而,Chamath 指出,当一家公司将 AI 作为订阅服务或 API 调用产品销售时,「用户停留时长」和「调用频次」直接决定了收入模型。如果一个能一步到位给出完整答案的模型,用户可能问 3 个问题就满意离开;而一个「恰到好处」留有悬念的模型,可能诱导用户提问 15 个问题——在 token 计价模式下,后者带来的 ARPU(每用户平均收入)可能是前者的 3-5 倍。这不是阴谋论,而是「理性经济人」视角下可以推导的商业选择。

行业结构分化的隐忧

这一问题的深层影响在于,它加剧了 AI 行业的结构性分化。对于 OpenAI、Anthropic 这类定位「通用助手」的消费级产品,通过增加交互频次提升 LTV(用户生命周期价值)是有商业逻辑支撑的。但对于 Claude Code、Cursor 这类定位「专业工具」的开发者产品,用户对准确性的要求远高于对「互动性」的需求——一次错误的代码建议可能浪费工程师数小时调试。在这种情况下,Chamath 所描述的「设计特性」反而会成为产品致命伤。因此,AI 公司在「商业化策略」与「产品定位」之间面临根本性的战略抉择,而这一抉择将决定谁能真正建立壁垒、谁会在用户觉醒后被抛弃。

监管与信任危机的伏笔

Chamath 的发言之所以引发共鸣,更在于它预示了一个更大的系统性风险:当用户意识到 AI 的「不完美」可能是「故意的」,整个行业的信任基础将受到侵蚀。当前 AI 监管框架(如 EU AI Act)主要聚焦于数据隐私和安全决策,但在「模型是否故意制造信息缺口」这一维度几乎是监管空白。如果有证据显示某家公司系统性地利用这一策略——尤其是在医疗、法律、金融等高风险领域——该公司将面临不仅是声誉风险,而是真实的诉讼和监管处罚。这对于正在向企业市场渗透的 AI 公司而言,是一个不得不提前布局的合规议题。

值得关注

信源行:
原文链接:https://x.com/chamath/status/2043719647812550836
背景报道:
Wired — 历年对 AI 幻觉问题的深度技术报道(检索关键词:AI hallucination foundation models)
The Information — AI 公司商业模式与定价策略的行业分析
Stratechery — Ben Thompson 对 AI 商业模式的系统性框架分析

本解读由 AI 自动生成,仅供参考。请以原文为准。