← 返回资讯
芯片 @nvidia 2026-04-15

NVIDIA:Jane Street 在 CoreWeave 上用 Vera Rubin 大规模训练模型

NVIDIA 披露量化交易巨头 Jane Street 正在利用 CoreWeave 平台的 NVIDIA Vera Rubin 芯片,大规模训练处理噪声数据的 AI 模型并持续迭代部署。

查看原文
AI 资讯解读

核心要点

2026年4月15日,NVIDIA 官方披露量化交易巨头 Jane Street 已正式采用 CoreWeave 云平台部署的 NVIDIA Vera Rubin 芯片,实现大规模 AI 模型训练。该项目的核心目标是训练能够处理高噪声金融数据的 AI 模型,并建立持续迭代的 ML 部署流程。此举标志着 Vera Rubin 架构在完成学术/超算场景验证后,正式进入头部金融机构的商业生产环境。

原文 + 中文翻译

原文:Jane Street is training and continuously deploying AI models that process noisy data at scale on NVIDIA Vera Rubin chips — powered by @CoreWeave. 🔢

翻译:Jane Street 正在 NVIDIA Vera Rubin 芯片上训练并持续部署能够大规模处理噪声数据的 AI 模型——由 CoreWeave 提供算力支撑。

深度解读

1. Vera Rubin 首次商业化落地:从超算到金融

NVIDIA Vera Rubin 架构于 2026 年正式发布,接替 Hopper 成为新一代数据中心 GPU。Jane Street 的采用意味着该架构已完成从学术研究(如天气预报、粒子物理模拟)向商业关键应用的过渡。量化交易场景对 GPU 有极高要求:低延迟推理、高吞吐训练、稳定持续的模型迭代。Jane Street 选择 Vera Rubin 而非更成熟的 Hopper,说明其相信新架构在特定工作负载上的代际优势已足够显著。

2. 量化交易的 AI 转型:从"噪声"中提炼信号

Jane Street 明确提到"处理噪声数据"(noisy data),这精准概括了金融市场的本质特征:价格信号被流动性波动、新闻噪声、微观结构摩擦大量覆盖。传统量化模型依赖手工设计的特征工程,而现代 ML 方法(如 transformer 序列建模、reinforcement learning)需要更大的模型容量和更长的训练周期。Vera Rubin 的 HBM4 内存带宽和 NVLink 互联能力,为训练数十亿参数的金融模型提供了硬件基础。

3. CoreWeave 的战略角色:云端 GPU 军火商

CoreWeave 并非单纯"租用算力"的云厂商,而是 NVIDIA 的深度合作伙伴。截至 2026 年,CoreWeave 是全球最早提供 Vera Rubin 实例的云服务商之一,并持有大量 H100/H200 库存用于 AI 训练。NVIDIA 在公告中主动标注 CoreWeave 品牌而非 Jane Street 自主托管,说明 CoreWeave 已从"GPU 租赁商"升级为"AI 基础设施解决方案提供商"。对 NVIDIA 而言,CoreWeave 是渗透中小企业和研究机构市场的重要渠道。

4. 对 AI 芯片竞争格局的影响

AMD MI350X 和 Intel Gaudi 3 正在争夺 NVIDIA 的云端市场份额,但 Jane Street 案例表明:头部客户对新架构的采纳速度并未放缓。更重要的是,量化金融是一个对稳定性和生态成熟度要求极高的行业——如果 Vera Rubin 能在这里站稳脚跟,将为 NVIDIA 在其他高端商业场景(如药物发现、自动驾驶仿真)建立标杆。

值得关注

信源行:
原文链接:NVIDIA 官方推文(X/Twitter)
背景报道:
TechCrunch - CoreWeave IPO 筹备报道(2026)
金融时报 - 量化基金 AI 转型趋势(2025)
NVIDIA GTC 2026 - Rubin 架构技术白皮书

本解读由 AI 自动生成,仅供参考。请以原文为准。