这不是 GitHub 第一次因代码训练问题引发争议。从 2021 年 Copilot 首次发布时使用公开仓库代码训练的争议,到 2022 年的集体诉讼,再到如今将付费用户的私有交互数据也纳入训练范围,开发者社区的信任正在被持续消耗。[2]
发生了什么
GitHub 更新 Copilot 交互数据使用政策,个人用户默认 opt-in
2026 年 3 月 25 日,GitHub 在官方博客发布了一篇名为 "Updates to GitHub Copilot interaction data usage policy" 的公告。[1] 核心变更:
被收集的 7 类数据涵盖了开发者与 Copilot 交互的几乎所有方面:[1]
- 输入内容 (Prompts)你在 Copilot Chat 中输入的所有问题和指令
- 输出内容 (Outputs)Copilot 生成的代码建议、解释和回答
- 代码片段 (Code Snippets)与 Copilot 交互过程中涉及的代码上下文
- 光标位置与上下文 (Cursor Context)光标所在位置的周围代码,用于理解编辑意图
- 文件名与路径 (File Metadata)正在编辑的文件名称和目录结构
- 仓库结构 (Repository Structure)项目的文件组织方式和目录层级
- 用户反馈 (Feedback)接受/拒绝建议、点赞/踩等交互信号
不受影响的用户:
社区反应:184 踩 vs 5 赞
压倒性的负面反馈,开发者的三大核心愤怒
GitHub 官方博文的社区投票比例直观地反映了开发者的态度:[2]
在评论区,多条高赞评论揭示了社区愤怒的核心原因:
GitHub 发送的通知邮件中没有包含直接的 opt-out 链接。用户需要自行找到设置页面才能关闭。一位开发者评论:"The notification email doesn't even include a direct link to opt out. This is a dark pattern."[2]
企业用户默认受保护(opt-in),个人用户则默认被收集(opt-out)。社区质疑:"Why do corporate users get opt-in protection while individual paying customers get opt-out?"[2]
Pro/Pro+ 用户每月支付 10-39 美元使用 Copilot,现在还要把代码贡献出来训练模型。开发者讽刺道:"I'm paying you to use my code to train your models. What a deal."[2]
用户威胁迁移:多条评论提到将代码迁移到 Codeberg、Gitea、GitLab 等替代平台。一位开发者表示 "This is the final straw. Moving my repos to Codeberg this weekend." 虽然实际迁移比例难以统计,但这种情绪在历次 GitHub 争议中是首次如此集中地出现。[2]