Yann LeCun:多数 AI 领袖认为末日论概率估计毫无根据
LeCun 称多数顶级 AI 人物认为 p(doom) 估计纯属扯淡,生存威胁几乎为零,但沉默者居多,末日论者吸引了过多注意力。
查看原文核心要点
2026年4月13日,Meta首席AI科学家Yann LeCun在X平台(原Twitter)发帖,公开表示大多数顶级AI研究者认为所谓的「AI灭绝概率」(p(doom))估算缺乏科学依据,AI引发人类生存威胁的可能性几乎可以忽略不计。他指出,这些观点在业内其实相当普遍,但由于「末日论者」掌握了更大的舆论声量,真正持怀疑态度的学者大多选择沉默,从而造成了公众认知的偏差。
原文 + 中文翻译
原文:Most leading AI researchers believe that p(doom) estimates are BS. The actual risk of extinction from AI is essentially zero. The problem is that those of us who think this way tend to stay quiet, while the doom-sayers get all the attention.
翻译:大多数顶尖AI研究者认为,p(doom) 概率估计纯属胡扯。AI导致人类灭绝的实际风险基本为零。问题在于,持这种观点的我们倾向于保持沉默,而末日论者却获得了所有关注。
深度解读
LeCun的立场与其学术一脉相承
Yann LeCun长期对「AI威胁论」持批评态度,这与他在学术界的「AI寒冬」经历密切相关。他主导的深度学习研究曾长期被主流学界忽视,直到2012年AlexNet出现才获得认可。这种经历塑造了他对技术悲观主义的天然反感。在他看来,当前的LLM系统连可靠的「猫狗识别」都做不到,就更谈不上对人类构成生存威胁。LeCun的开源路线(Meta的LLaMA系列)也反映了他对AI能力的务实评估——如果连开源模型都无法造成威胁,闭源系统突然失控的概率更是微乎其微。
这场辩论的本质是话语权争夺
LeCun的发言揭示了AI学术界一个隐秘的分歧:「AI安全派」(如Anthropic、OpenAI部分成员)强调未知的生存风险需要认真对待;「技术乐观派」(以LeCun为代表)则认为末日论分散了对真实问题的注意力。这场争论的实质不是「AI是否危险」,而是「应该把有限的研究资源放在哪里」。据多方报道,OpenAI、Google DeepMind内部均有研究人员私下对极端末日论持保留态度,但出于机构利益或政治考量选择不公开表态。
沉默螺旋与公众认知扭曲
LeCun指出的「沉默者」现象在传播学中被称为「沉默螺旋」——当少数观点获得媒体放大,持相反意见者会因担心被孤立而保持沉默,形成「多数人支持」的假象。这在AI领域的后果是:普通公众、政策制定者接触的信息严重偏向末日叙事,导致监管讨论被恐惧驱动,而非证据驱动。例如,拜登政府的AI行政令、欧盟的AI法案都明显受到「AI可能失控」叙事的影响。
风险是真实存在的,但未必是「存在性」的
值得强调的是,LeCun的批评针对的是「灭绝级风险」的极端论述,而非AI安全的全部问题。即使接受「生存威胁概率接近零」的判断,AI系统仍可能通过其他方式造成严重危害:偏见放大、劳动力替代、选举干扰、武器化应用等。这些「非存在性」风险才是当前监管最需要解决的问题。
值得关注
- LeCun的后续表态:他在2026年是否会进一步展开论述,或在学术会议(如NeurIPS、ICML)中正式发表相关观点,以避免被「断章取义」?
- 其他顶级研究者的公开回应:如Ilya Sutskever、Demis Hassabis等人是否会直接或间接回应此观点?2026年的AI安全会议将是重要观察节点。
- Meta的开源策略与LeCun立场的关联:如果开源社区成为「AI安全」的新中心,这是否会影响LeCun观点的公信力?
- 政策层面的影响:美国AI安全研究所(AISI)、英国AI安全峰会是否会因这一讨论调整风险评估框架?
- 媒体如何报道:主流媒体会如何框架化LeCun的发言——是「权威专家背书」还是「科技巨头掌门人的傲慢」?这会影响公众舆论走向。
信源行:
原文链接:https://x.com/ylecun/status/2043673634363851250
背景报道:
• MIT Technology Review 关于AI安全讨论中「沉默者」现象的分析报道(2025)
• Nature Machine Intelligence 关于AI灭绝风险学术争议的综述文章
• The Verge 汇总的LeCun历年AI末日论批评言论整理