2026 年 3 月,Anthropic 宣布成立 Anthropic Institute,将公司内部三个独立运作的研究团队——Frontier Red Team(前沿红队)、Societal Impacts Group(社会影响组)和 Economic Research Team(经济研究组)——整合为一个统一的研究机构,由联合创始人 Jack Clark 亲自领导。[1]
更值得关注的是 Anthropic Institute 的人才招募——Matt Botvinick(前 DeepMind 研究副总裁)、Anton Korinek(弗吉尼亚大学经济学教授、AI 经济学领域权威)、Zoe Hitzig(哈佛大学社会科学学者)等跨领域顶尖人才的加入,以及华盛顿 DC 办公室的设立,表明这不是一个象征性的"企业社会责任"举措,而是一个有实质研究能力和政策影响力的机构。[1]
概览:为什么成立 Anthropic Institute
从分散的研究团队到统一的治理机构
在 Anthropic Institute 成立之前,Anthropic 已经在 AI 安全和社会影响研究上投入了大量资源,但这些努力分散在多个独立团队中。Frontier Red Team 负责模型安全评估,Societal Impacts Group 研究 AI 对社会的影响,Economic Research Team 分析 AI 对劳动力市场和经济结构的影响。[1]
整合的动机在于:AI 治理是一个高度跨学科的问题。安全评估需要理解社会影响,社会影响分析需要经济学框架,经济研究需要对技术能力有深入认知。独立运作的团队难以形成这种综合视角。[2]
三大研究方向:预测、法律、经济
Anthropic Institute 的核心研究议题
Anthropic Institute 明确了三个核心研究方向,每个方向都配备了领域顶尖的研究者。[1]
建立系统化的 AI 能力预测框架——不是预测"AI 什么时候达到 AGI",而是更具体的问题:下一代模型在特定任务上的能力提升幅度、新兴能力出现的时间节点、能力突破对社会的影响路径。[1]
- 能力评估基准的持续更新
- 突现能力(Emergent Capabilities)的早期检测
- 多模态能力演进路径预测
- 与 RSP 评估流程的整合
研究 AI 对法律体系的影响和法律体系如何适应 AI。重点包括:AI 生成内容的法律地位、自动化决策的责任归属、AI 在司法程序中的应用边界。[1]
- AI 决策的可解释性要求
- 模型输出的知识产权归属
- AI 系统的法律人格问题
- 跨境 AI 监管的协调框架
量化分析 AI 对劳动力市场、产业结构和经济增长的影响。这不是泛泛的"AI 会取代哪些工作",而是基于实证数据的深入分析——哪些行业的生产率因 AI 提升了多少、新的就业形态如何涌现。[3]
- AI 对不同行业生产率的实证测量
- AI 驱动的新就业形态追踪
- AI 投资回报率的系统化分析
- AI 导致的收入分配变化研究
三个方向之间存在紧密关联:AI 能力预测为经济学研究提供技术假设,经济学研究为法律研究提供影响评估,法律研究为安全政策(RSP)提供制度框架。[2]