https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
解读 Claude 对开发者的影响:AI 如何在 Anthropic 改变工作?
近日 Claude 开发公司 Anthropic 发布了一篇 《How AI Is Transforming Work at Anthropic》 的文章,文章是 Anthropic 在 8 月对内部员工进行调查,通过对 132 名工程师和研究人员的调查、53 次深度访谈,以及对 20 万条内部 Claude Code 使用记录的分析,报告了目前 AI 对于工程师的相关影响。
● 通过内部 Slack 渠道(68 份响应)和直接接触 207 人(64 份响应,31% 响应率)进行,问题聚焦编码任务频率、生产力影响和委托策略
● 针对前 53 名调查受访者,进行主题分析,探讨委托实践、技能变化、社会动态和职业转变
● 使用隐私保护工具分析 20 万条内部记录,按任务复杂度(1-5 量表)、类型(如调试、功能实现)和团队差异分类
文章的核心是 AI 如何重塑工作,分为生产力、新任务启用、委托实践、技能变化、社会/职业影响和使用趋势等,我们可以先简单看看文章提供的真实数据表格,感受下 AI 对于开发者的影响数据:
通过上面这份数据,可以直观看到:
生产力提升:
● 平均 50% 生产力提升(14% 用户超过 100%),合并拉取请求(pull requests)每工程师增加 67%,任务时间减少(如调试时间缩短),输出量增加
● 减少琐碎工作(如重构),并行探索想法(如同时运行多个 Claude 实例),复杂调试可能需更多善后清理时间,但整体效率更高
启用新工作:
● 这是一个有趣的现象,报告里 27% 的 Claude 辅助工作原本不会发生,包括扩展项目、“锦上添花”任务(如交互式仪表板、文档、测试)和探索性工作,另外还有 8.6% 为“小修小补”(如可维护性重构)
● 例如安全团队用 Claude 分析未知代码含义;非技术员工调试网络或 Git 问题
委托实践:
● 整体 Claude 使用频繁提升,但完全委托只占了 0-20%,大多数情况还是需主动监督,开发者还是优先委托易验证、低风险或枯燥任务(如抛弃式调试代码),在逐步信任逐步后,才有从简单到复杂的过程。
● 边界:调查报告里主要反馈还有高风险、战略思考或“品味”任务(如设计决策)需要保留人类处理
技能扩展与退化:
● 这也是比较经典的调查结果,现在的工程师更“全栈化” ,处理专长外任务(如后端工程师快速构建复杂 UI,研究人员用 Claude 创建前端可视化,对齐团队用 Claude 实验,安全团队分析代码影响)
● 当然,对于 Claude 的开发者而已,他们也有技能退化的忧虑,担心这样大幅度减少了动手实践,胡导致代码编写和审阅技能弱化,影响监督能力,一些工程师反应会通过定期“无 AI 练习”应对焦虑
社会与职业转变:
● AI 带来的最直接影响之一,人与人的互动更少了,每个人都更像是一个独立的“超级个体”与 AI 结对编程,而非与团队协作
● 受访者情绪分裂:短期多数人对扩展能力与效率提升持乐观,但也有人担心长远会被 AI 替代或角色被彻底改写
可以看到,职业认同的危机不只是外部开发者有, Claude 内部开发者也有这个焦虑,这种心态大概是:
另外,AI 也不是完完全全就减少了开发者的工作时间,在报告里可以看到,因为 AI 也导致了一些开发者的工作随机反着增加了:
● 正向的“更多时间” :以前因为太难或太繁琐而通过“放弃”来处理的任务,现在工程师愿意花时间去攻克了
● 负向的“更多时间” :盲目信任 AI 生成的代码,结果把自己逼进了死胡同,最后不得不花大量时间去调试和清理 AI 留下的烂摊子,这也增加了“认知负荷”,毕竟阅读和理解别人(或 AI)写的代码,往往比自己写更累
可以看到,Anthropic 这篇数据虽然只是内部调研,但是也很直观反映了当前的一些情况,随着 AI 的流行,整个开发结构也在发生变化,最明显就是开发者的边界在慢慢打破:
● 后端可以通过 AI 构建 UI ,算法团队可以自己搭建可视化数据拓展,开发者的边界越来越模糊,工程师变得更 “full-stack”,更敢去处理以往不熟悉的领域(前后端、数据库、数据可视化等),因为 Claude 能覆盖很多低上下文或易校验任务
● AI 很擅长做大量“papercut”(小修小补、局部消重构、写测试、生成文档)以及加速调试/理解代码,从而让同一时间段内“输出量”提升明显,开发者更聚焦在需求理解和业务领域
另外,报告里也提到了:
● AI 已经不仅仅是工具,它已经在慢慢改变你的工作方式和职业生涯
● 红利与债务并存:使用 AI 在获得了巨大的生产力红利(产出增加、门槛降低),但也背负了潜在的隐性债务(技能空心化、社交隔离)
● 未来的关键能力:在 AI 时代,工程师的核心竞争力可能不再是“写出完美的语法”,而是 “定义问题”、“设计验证机制”以及“跨领域的系统性思维” 等
所以,这不仅是 Anthropic 内部的故事,也是整个软件行业即将面临的“预告片” 。
原文链接
www.anthropic.com/research/ho…
via 掘金人工智能本月最热 (author: 恋猫de小郭)
近日 Claude 开发公司 Anthropic 发布了一篇 《How AI Is Transforming Work at Anthropic》 的文章,文章是 Anthropic 在 8 月对内部员工进行调查,通过对 132 名工程师和研究人员的调查、53 次深度访谈,以及对 20 万条内部 Claude Code 使用记录的分析,报告了目前 AI 对于工程师的相关影响。
这是一份很有参考价值的数据。在这里 Anthropic 使用三种互补方法,确保定量与定性数据的平衡:
● 通过内部 Slack 渠道(68 份响应)和直接接触 207 人(64 份响应,31% 响应率)进行,问题聚焦编码任务频率、生产力影响和委托策略
● 针对前 53 名调查受访者,进行主题分析,探讨委托实践、技能变化、社会动态和职业转变
● 使用隐私保护工具分析 20 万条内部记录,按任务复杂度(1-5 量表)、类型(如调试、功能实现)和团队差异分类
文章的核心是 AI 如何重塑工作,分为生产力、新任务启用、委托实践、技能变化、社会/职业影响和使用趋势等,我们可以先简单看看文章提供的真实数据表格,感受下 AI 对于开发者的影响数据:
通过上面这份数据,可以直观看到:
生产力提升:
● 平均 50% 生产力提升(14% 用户超过 100%),合并拉取请求(pull requests)每工程师增加 67%,任务时间减少(如调试时间缩短),输出量增加
● 减少琐碎工作(如重构),并行探索想法(如同时运行多个 Claude 实例),复杂调试可能需更多善后清理时间,但整体效率更高
启用新工作:
● 这是一个有趣的现象,报告里 27% 的 Claude 辅助工作原本不会发生,包括扩展项目、“锦上添花”任务(如交互式仪表板、文档、测试)和探索性工作,另外还有 8.6% 为“小修小补”(如可维护性重构)
● 例如安全团队用 Claude 分析未知代码含义;非技术员工调试网络或 Git 问题
委托实践:
● 整体 Claude 使用频繁提升,但完全委托只占了 0-20%,大多数情况还是需主动监督,开发者还是优先委托易验证、低风险或枯燥任务(如抛弃式调试代码),在逐步信任逐步后,才有从简单到复杂的过程。
● 边界:调查报告里主要反馈还有高风险、战略思考或“品味”任务(如设计决策)需要保留人类处理
技能扩展与退化:
● 这也是比较经典的调查结果,现在的工程师更“全栈化” ,处理专长外任务(如后端工程师快速构建复杂 UI,研究人员用 Claude 创建前端可视化,对齐团队用 Claude 实验,安全团队分析代码影响)
● 当然,对于 Claude 的开发者而已,他们也有技能退化的忧虑,担心这样大幅度减少了动手实践,胡导致代码编写和审阅技能弱化,影响监督能力,一些工程师反应会通过定期“无 AI 练习”应对焦虑
社会与职业转变:
● AI 带来的最直接影响之一,人与人的互动更少了,每个人都更像是一个独立的“超级个体”与 AI 结对编程,而非与团队协作
● 受访者情绪分裂:短期多数人对扩展能力与效率提升持乐观,但也有人担心长远会被 AI 替代或角色被彻底改写
可以看到,职业认同的危机不只是外部开发者有, Claude 内部开发者也有这个焦虑,这种心态大概是:
“我以为我喜欢写代码,其实我只是喜欢代码跑通的结果”。所以未来 AI 对于开发者的影响,还可能会带来新的职业价值观的重构,所以有人感到迷茫:如果写代码这个动作本身不再重要,那么以后作为软件工程师的身份认同建立在哪里?
另外,AI 也不是完完全全就减少了开发者的工作时间,在报告里可以看到,因为 AI 也导致了一些开发者的工作随机反着增加了:
● 正向的“更多时间” :以前因为太难或太繁琐而通过“放弃”来处理的任务,现在工程师愿意花时间去攻克了
● 负向的“更多时间” :盲目信任 AI 生成的代码,结果把自己逼进了死胡同,最后不得不花大量时间去调试和清理 AI 留下的烂摊子,这也增加了“认知负荷”,毕竟阅读和理解别人(或 AI)写的代码,往往比自己写更累
可以看到,Anthropic 这篇数据虽然只是内部调研,但是也很直观反映了当前的一些情况,随着 AI 的流行,整个开发结构也在发生变化,最明显就是开发者的边界在慢慢打破:
● 后端可以通过 AI 构建 UI ,算法团队可以自己搭建可视化数据拓展,开发者的边界越来越模糊,工程师变得更 “full-stack”,更敢去处理以往不熟悉的领域(前后端、数据库、数据可视化等),因为 Claude 能覆盖很多低上下文或易校验任务
● AI 很擅长做大量“papercut”(小修小补、局部消重构、写测试、生成文档)以及加速调试/理解代码,从而让同一时间段内“输出量”提升明显,开发者更聚焦在需求理解和业务领域
另外,报告里也提到了:
“人们通常把 AI 当作一辆更快的车,但如果你拥有一百万匹马,你可以同时测试无数个想法。”这也是一个典型代表,在 AI 时代的工程模式发生了转变,以前从线性的“构思-编码-测试”,可以转变为并行的“多路径探索”,工程师的角色从“搬砖者”变成了“指挥官”,指挥 AI 牛马去尝试不同的解决方案,然后人类来挑选最好的一个。
这对于不差 token 的 Claude 内部员工来说无疑是 Free 的。当然,Anthropic 员工是“内圈”样本,结论不能直接外推到非科技行业或不同规模公司,但是从报告所反映的短期/中期效应,长期劳动力结构变化、工资分配与职业路径变化都有不错的参考价值:
AI 能显著增加产量并扩展个人可承担任务的范围,但同时带来技能退化风险、团队协作减少与职业不确定感。总的来说,Anthropic 的这份报告可以反射出一个正在发生的现实:
● AI 已经不仅仅是工具,它已经在慢慢改变你的工作方式和职业生涯
● 红利与债务并存:使用 AI 在获得了巨大的生产力红利(产出增加、门槛降低),但也背负了潜在的隐性债务(技能空心化、社交隔离)
● 未来的关键能力:在 AI 时代,工程师的核心竞争力可能不再是“写出完美的语法”,而是 “定义问题”、“设计验证机制”以及“跨领域的系统性思维” 等
所以,这不仅是 Anthropic 内部的故事,也是整个软件行业即将面临的“预告片” 。
原文链接
www.anthropic.com/research/ho…
via 掘金人工智能本月最热 (author: 恋猫de小郭)
微软宣布将于周五独立发布新一代AI模型,称其将把AI代理能力提升到新水平。此举被视为微软在AI领域寻求更大自主性的信号,恰逢行业竞争加剧之际。与此同时,GPT-5.2因技术与产能问题推迟发布,OpenAI尚未更新最新进展。
在OpenAI的GPT-5.2发布计划存在变数之际,微软宣布将独立推出新一代AI模型。微软CEO Satya Nadella周四在印度班加罗尔的活动上表示,公司将于周五发布一款新的AI模型,该模型“将把AI代理提升到新的水平”。
Nadella此次是在访问印度期间发布上述消息的,他已会见了印度总理莫迪和商业领袖。本周早些时候,他刚宣布了在印度投资175亿美元建设AI云基础设施的计划,以及为印度人口提供AI时代培训的项目。
微软这一独立举措可能反映出其在AI领域寻求更大自主权的战略意图,而不仅仅依赖合作伙伴OpenAI的技术进度。
这一宣布正值AI行业竞争白热化之际。据华尔街见闻此前文章,12月5日,据The Verge报道,OpenAI原计划最早于12月9日发布GPT-5.2模型,较原定的12月下旬计划明显提前,以应对谷歌Gemini和Anthropic Claude的激烈竞争。
社交媒体流传的对比图显示,GPT-5.2在参数上几乎全面“碾压”Gemini 3和Claude 4.5。Sam Altman也在内部评估中宣称,新模型在推理能力上将领先于谷歌竞品。
然而,分析师警告称,OpenAI的发布日期并不稳定。由于开发问题、服务器容量限制以及竞争对手的动作,GPT-5.2的实际推出时间可能会晚于12月9日。截至发稿,OpenAI仍没有发布最新的GPT-5.2模型。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:华尔街见闻)
ChatGPT 是苹果美国 2025 年下载量最高的免费应用
2025-12-11 14:08 by 电波骑士
苹果周三发布了最受欢迎应用和游戏年度榜单。在美国市场,OpenAI 的 ChatGPT 应用位居 2025 年免费应用(不包括游戏)下载量榜首。紧随其后的是 Threads、Google、TikTok、WhatsApp、Instagram、YouTube、Google Maps、Gmail 和 Google 的 Gemini。ChatGPT 去年排名第四,榜首是拼多多的跨境购物应用 Temu。ChatGPT 应用于 2023 年 5 月在 iPhone 上发布,虽然表现不凡,但在 2023 年它未能进入前十。
https://apps.apple.com/us/iphone/room/6756335209
#苹果
via Solidot - Telegram Channel
2025-12-11 14:08 by 电波骑士
苹果周三发布了最受欢迎应用和游戏年度榜单。在美国市场,OpenAI 的 ChatGPT 应用位居 2025 年免费应用(不包括游戏)下载量榜首。紧随其后的是 Threads、Google、TikTok、WhatsApp、Instagram、YouTube、Google Maps、Gmail 和 Google 的 Gemini。ChatGPT 去年排名第四,榜首是拼多多的跨境购物应用 Temu。ChatGPT 应用于 2023 年 5 月在 iPhone 上发布,虽然表现不凡,但在 2023 年它未能进入前十。
https://apps.apple.com/us/iphone/room/6756335209
#苹果
via Solidot - Telegram Channel
据路透社报道,OpenAI周三警告称,随着性能的快速提升,公司即将推出的新AI模型可能带来“高级别”网络安全风险。OpenAI周三在博客文章中表示,这些AI模型可能会自行开发出可对防护严密的系统发动攻击的零日远程漏洞利用程序,或协助旨在产生现实影响的复杂企业或工业入侵行动。
OpenAI表示,随着模型性能的不断提升,公司正“投入资源强化模型在防御性网络安全任务中的能力,并开发工具帮助防御者更便捷地执行代码审计与漏洞修复等工作流程”。
为应对网络安全风险,OpenAI将依赖多种措施的组合,包括访问控制、基础设施强化、出口流量控制以及监测。OpenAI称,公司即将启动一项计划,探索为从事网络防御的合格用户和客户提供分级访问权限,以使用加强功能。
OpenAI还将成立名为“前沿风险委员会”的咨询小组,邀请经验丰富的网络防御专家与安全从业者与其团队开展紧密协作。该小组初期将聚焦网络安全领域,未来将逐步拓展至其他前沿能力领域。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
谷歌 DeepMind 宣布将设立首个新材料研发研究实验室,重点研发电池、半导体等领域所需材料,这是其推动人工智能应用于更多科学领域的重要举措。谷歌母公司字母表公司(Alphabet Inc.)周四表示,该实验室将于明年在英国落成,是谷歌与英国政府广泛合作的核心项目。
根据协议,谷歌将为英国的科学家、教师和公职人员量身定制包括 Gemini 在内的多款人工智能模型。
DeepMind称这座实验室是其首个 “自动化” 设施 —— 通过机器人执行科学实验,最大限度减少人为干预。目前谷歌尚未披露该实验室的财务细节及员工规模。
此次与英国的合作,是谷歌推动各国政府采用其云服务和 Gemini 人工智能模型的重要胜利。在这一领域,谷歌的竞争对手包括微软(Microsoft Corp.)和 OpenAI。同时,这也表明 DeepMind 计划进一步深耕材料科学领域,该领域是其核心研究方向之一。目前已有多家新兴初创企业(包括部分由前 DeepMind 工程师创办的公司)正尝试利用先进人工智能算法发掘新型材料,这些企业认为该技术可大幅降低研发成本、缩短研发周期。
DeepMind 表示,新实验室将重点研发可改善医学成像、太阳能电池板和芯片性能的材料。此外,谷歌还将为英国科学家提供四款科学模型的 “优先使用权”,包括 DNA 解析模型和天气预报模型。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
州检察长要求AI巨头修复“妄想性”输出
在一系列涉及AI聊天机器人的心理健康事件后,美国多名州检察长已向AI行业的头部企业致函,警告其修复 “妄想性输出”,否则可能违反州法律。这封由各州及领地数十位检察长及全国检察长协会联合签署的信函,要求包括微软、OpenAI、谷歌及其他十家主要AI公司在内的企业,实施多种新的内部保障措施以保护用户。这些保障措施包括对大型语言模型进行透明的第三方审计以检测妄想性或谄媚性臆想迹象,以及建立新的事件报告程序,用于在聊天机器人产生心理有害输出时通知用户。这些第三方机构,应被允许在系统预发布阶段进行评估且免遭报复,并在无需公司事先批准的情况下公布其发现。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
在一系列涉及AI聊天机器人的心理健康事件后,美国多名州检察长已向AI行业的头部企业致函,警告其修复 “妄想性输出”,否则可能违反州法律。这封由各州及领地数十位检察长及全国检察长协会联合签署的信函,要求包括微软、OpenAI、谷歌及其他十家主要AI公司在内的企业,实施多种新的内部保障措施以保护用户。这些保障措施包括对大型语言模型进行透明的第三方审计以检测妄想性或谄媚性臆想迹象,以及建立新的事件报告程序,用于在聊天机器人产生心理有害输出时通知用户。这些第三方机构,应被允许在系统预发布阶段进行评估且免遭报复,并在无需公司事先批准的情况下公布其发现。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
OpenAI:新模型或构成高级别网络安全风险
OpenAI公司周三警告称,随着性能的快速提升,公司即将推出的新AI模型可能带来“高级别”网络安全风险。OpenAI 在博客文章中表示,这些AI模型可能会自行开发出可对防护严密的系统发动攻击的零日远程漏洞利用程序,或协助旨在产生现实影响的复杂企业或工业入侵行动。OpenAI表示,随着模型性能的不断提升,公司正“投入资源强化模型在防御性网络安全任务中的能力,并开发工具帮助防御者更便捷地执行代码审计与漏洞修复等工作流程”。为应对网络安全风险,公司将依赖多种措施的组合,包括访问控制、基础设施强化、出口流量控制以及监测。
—— 凤凰网科技、路透社
via 风向旗参考快讯 - Telegram Channel
OpenAI公司周三警告称,随着性能的快速提升,公司即将推出的新AI模型可能带来“高级别”网络安全风险。OpenAI 在博客文章中表示,这些AI模型可能会自行开发出可对防护严密的系统发动攻击的零日远程漏洞利用程序,或协助旨在产生现实影响的复杂企业或工业入侵行动。OpenAI表示,随着模型性能的不断提升,公司正“投入资源强化模型在防御性网络安全任务中的能力,并开发工具帮助防御者更便捷地执行代码审计与漏洞修复等工作流程”。为应对网络安全风险,公司将依赖多种措施的组合,包括访问控制、基础设施强化、出口流量控制以及监测。
—— 凤凰网科技、路透社
via 风向旗参考快讯 - Telegram Channel
深度求索使用走私Blackwell芯片训练?英伟达回应
英伟达周三回应了一则报道,该报道称中国AI公司深度求索一直在使用走私的Blackwell芯片开发其即将推出的模型。美国已禁止向中国出口英伟达的Blackwell芯片,该芯片被认为是该公司最先进的产品,此举是为了在人工智能竞赛中保持领先。据报道,深度求索正在使用未经授权偷运入境的芯片。英伟达公司发言人在声明中表示:“我们尚未看到任何实证或收到关于建造 ‘幽灵数据中心’ 以欺骗我们和我们的 [原始设备制造商] 合作伙伴,随后将其拆除、走私并在其他地方重建的线索。尽管此类走私行为似乎牵强,但我们会对收到的所有线索进行追查。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
英伟达周三回应了一则报道,该报道称中国AI公司深度求索一直在使用走私的Blackwell芯片开发其即将推出的模型。美国已禁止向中国出口英伟达的Blackwell芯片,该芯片被认为是该公司最先进的产品,此举是为了在人工智能竞赛中保持领先。据报道,深度求索正在使用未经授权偷运入境的芯片。英伟达公司发言人在声明中表示:“我们尚未看到任何实证或收到关于建造 ‘幽灵数据中心’ 以欺骗我们和我们的 [原始设备制造商] 合作伙伴,随后将其拆除、走私并在其他地方重建的线索。尽管此类走私行为似乎牵强,但我们会对收到的所有线索进行追查。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel