← 返回资讯
观点 @paulg 2026-04-26

Paul Graham:每发一条推文都顺手举报 AI 生成的回复账号

Y Combinator 创始人 Paul Graham 表示,自己每发一条推文都会顺手拉黑、举报几个用 AI 生成回复的账号,称这就像在城市街头捡垃圾,不知道有没有用,但至少让平台干净一点。

查看原文
AI 资讯解读

核心要点

2026年4月26日,Y Combinator 创始人 Paul Graham 在 X(原 Twitter)上披露了一个日常习惯:每当他在平台发帖,都会顺手举报并拉黑几个使用 AI 生成内容进行回复的账号。Graham 将这一行为比作「在城市街头捡垃圾」——效果或许有限,但至少让平台环境更干净一些。此言一出,引发了关于 AI 生成垃圾内容(AI Spam)与平台治理的广泛讨论。

原文 + 中文翻译

原文:"I also report some of the accounts that reply to my posts with AI-generated content. It's like picking up trash in the street: you probably can't single-handedly make it clean, but it doesn't hurt and at least you can keep your corner clean."

翻译:"我同时也会举报一些用 AI 生成内容回复我帖子的账号。这就像在街头捡垃圾:你可能无法凭一己之力让整条街变干净,但它没有坏处,至少能让你那一角保持整洁。"

深度解读

1. AI 生成垃圾内容已从隐患升级为显性威胁

Paul Graham 这番话的背景,是 AI 生成回复在 X、LinkedIn 等平台的大规模泛滥。自 2024 年起大语言模型成本大幅下降,生成一条看似合理的回复成本已低至不到 0.01 美元。这催生了一条灰色产业链:某些账号持有者利用 AI 批量生成回复,目的是积累粉丝、导流变现,或纯粹为了测试「是否能骗过人类」。Graham 作为拥有超过 180 万粉丝的科技圈意见领袖,是此类行为的高频目标——他的每条帖子可能收到数十甚至上百条 AI 生成的回复,其中大量来自专门针对高权重账号的「定向攻击」账号。

2. 「捡垃圾」隐喻揭示了平台治理的结构性困境

Graham 将举报 AI 账号比作捡垃圾,这一比喻意味深长。街头捡垃圾的前提是:垃圾是别人的责任,而不是行人的。但 Graham 的行动表明,在平台执法缺位的情况下,个体用户被迫成为「义务清洁工」。这种「自组织式」的治理效率极低——Graham 每举报一条,生成者可以批量注册十个新账号。更重要的是,它将治理成本转嫁给了最有影响力的用户群体,而这些用户(意见领袖、科研人员、企业家)恰恰是平台生态的核心资产。他们被迫将注意力分散到「打扫卫生」上,是对平台价值的一种损耗。

3. X 平台的自动化内容检测存在明显漏洞

Graham 的习惯揭示了一个尴尬事实:X 平台自身的 AI 内容检测能力远未成熟。X 在 2024-2025 年间多次调整垃圾内容政策,但收效有限。用户侧的反馈机制(如「举报」)目前仍是主要检测路径,这说明平台更多依赖「用户自发执法」而非技术手段主动拦截。在 Meta、Google 等公司已部署较成熟 AI 生成内容标签系统的对比下,X 的滞后更加突出。

4. 此举对科技圈「AI 伦理」叙事产生微妙影响

值得注意的是,Graham 并没有呼吁立法或平台改革,而是选择了个人层面的「非暴力不合作」。这种务实姿态在硅谷有一定的文化土壤——工程师倾向于用行动而非议论解决问题。但它同时回避了更深层的追问:当 AI 生成内容无法被有效识别和标记时,整个在线对话的信任基础正在被动摇。Graham 的「捡垃圾」策略在战术上是合理的,在战略上却是防守性的。

值得关注

信源行:
原文链接:https://x.com/paulg/status/2048413578789634100
背景报道:
• The Verge — "AI-generated spam is overwhelming social media"(2025 年报道,分析了 X/Twitter 平台 AI 回复泛滥现象)
• TechCrunch — "Platforms struggle to label AI-generated content as detection lags behind generation"(2025 年底跟进 X 平台内容治理现状)
• 量子位 / 机器之心 — 可搜索 2026 年中文科技媒体对 AI Spam 治理的政策解读

本解读由 AI 自动生成,仅供参考。请以原文为准。