全球最大的代码托管平台 GitHub 近日丢下了一枚重磅炸弹:官方宣布将从 2026 年 4 月 24 日起,开始使用用户的交互数据来训练其 AI 模型。这一举动被不少开发者戏称为“撤销键(CTRL-Z)”操作,因为 GitHub 此前曾多次在公开场合强调对用户私有数据的尊重,而新政策显然打破了这一默契。
“默认加入”引发争议,私有仓库不再绝对私密
根据 GitHub 更新的隐私条款,Copilot 的免费版、个人版(Pro)以及专业增强版(Pro+)用户都在此次数据采集范围内。系统将自动抓取包括代码片段、输入输出内容、光标上下文、甚至文件名和目录结构在内的详尽数据。最令社区不安的是,即使是存储在“私有仓库”中的代码,只要用户在编辑时开启了 Copilot,相关代码片段也可能被摄取用于模型训练。GitHub 首席产品官马里奥·罗德里格斯对此解释称,内部员工的测试证明,加入真实交互数据能显著提升 AI 捕捉 Bug 的准确率,但这种“默认开启”而非“手动加入”的策略,在开发者社区引发了强烈反弹,相关公告下的反对票数瞬间激增。
如何自保:企业用户豁免与手动关闭指南
在这场数据掠夺战中,并非所有用户都处于被动地位。GitHub 明确表示,购买了 Copilot 商业版(Business)和企业版(Enterprise)的付费组织,以及通过认证的学生和教师,将受到合同条款保护,其数据不会被用于训练。
对于普通个人用户,如果不想让自己的代码变成 AI 进化的养料,必须在 4 月 24 日限期前手动完成防御操作。用户需要前往 GitHub 的设置界面,在 Copilot 隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”并将其关闭。虽然官方辩称这一做法与 Anthropic、JetBrains 等同行的行业惯例保持一致,但在“隐私优先”呼声日益高涨的今天,这种解释显然难以平息社区的怒火。
via AI新闻资讯 (author: AI Base)