https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
马斯克再战AI新赛道:桌面级编程神器Grok Build意外曝光

近期,埃隆·马斯克旗下的AI初创公司xAI正式更名为SpaceXAI,紧接着便传出了一则重磅消息:该公司正准备推出一款名为Grok Build的桌面端编程应用。

这起爆料源于Grok网页端的一个“意外”。今天,网页界面上短暂出现了一个名为“Grok计算机”的按钮。虽然该功能在短时间内就被迅速下架,但在其露面期间,用户可以看到一个允许在Grok计算机文件夹与谷歌云端硬盘(Google Drive)之间进行选择的控件。尽管当时底层功能尚未激活,但这次泄露无疑释放了一个明确信号——SpaceXAI的发布部署已经进入最后冲刺阶段。

目前,已经有部分内测用户率先体验到了Grok Build。据悉,这款应用将实现macOS、Linux和Windows三大主流系统的全面覆盖。在市场定位上,Grok Build直指Anthropic的Claude Code以及OpenAI的Codex桌面版。其核心逻辑并非简单的对话聊天,而是专注于“智能体自主编程工作流”。

在技术架构层面,Grok Build展现出了极强的专业性和扩展性。它支持插件、MCP(模型上下文协议)及技能模块,能够深度适配Git代码仓库。开发者可以通过它启动开发服务器、利用内置浏览器查阅资料,并管理本地文件系统。此外,它还具备多步骤任务规划模式,能辅助开发者处理复杂的编程挑战。

至于驱动这款工具的背后力量,业内推测它极有可能搭载近期开放内测的Grok4.3抢先体验版。根据早期测试人员的反馈,该模型在前端编程能力上较以往版本有显著飞跃。虽然SpaceXAI官方尚未公布确切的上线时间表,但随着网页端的“手滑”泄露和内测权限的陆续发放,这款旨在颠覆AI编程赛道的桌面应用显然已呼之欲出。

via AI新闻资讯 (author: AI Base)
英伟达2026年初承诺400亿美元股权投资,300亿重金加码OpenAI

英伟达(Nvidia)在2026年伊始便以激进的投资态势震动人工智能产业。据CNBC最新报道,这家处于AI计算核心地位的芯片巨头在今年前几个月内已承诺投入超过400亿美元用于股权投资,其资本布局规模之大,正深刻重塑全球AI生态系统的竞争格局。

在这笔巨额投入中,最受瞩目的核心动向是对OpenAI高达300亿美元的战略注资,此举进一步加深了顶级算力供应商与领先大模型研发商之间的利益捆绑。除针对头部独角兽的重仓外,英伟达的投资触角正延伸至产业链各环节,包括对玻璃制造巨头康宁公司(Corning)至多32亿美元的投资,以及向数据中心运营商IREN注入至多21亿美元资金。FactSet数据显示,仅2026年至今,英伟达已参与约24轮私营初创公司的融资,而在2025年,其风险投资交易总数已达67笔。

尽管这种“投资客户”的行为引发了市场关于循环交易、资金在关联公司间闭环流动的持续质疑,但行业分析普遍认为,英伟达正通过这种资本手段建立极其稳固的“竞争护城河”。

随着其Blackwell和Rubin架构芯片预计在2027年底创造至少1万亿美元收入,英伟达正利用其超额收益加速构建从硬件底层、基础设施到应用层的全栈生态体系。这种深度参股不仅确保了其最新AI芯片的稳定去路,更在技术标准与供应优先权上构筑了排他性优势,预示着AI产业正步入由算力霸权驱动的强垂直整合时代。

via AI新闻资讯 (author: AI Base)
谷歌 Chrome 浏览器 148 版更新:本地 AI 数据处理表述引发关注

近日,谷歌宣布了 Chrome 浏览器的最新版本 148 的更新,但这一更新引发了用户和专家的关注。根据 cybernews 的报道,谷歌对 Chrome 中设备端 AI 模型处理数据的相关措辞进行了修改。之前在 Chrome 147 版本中,明确表示:“Chrome 可以使用直接在设备上运行的 AI 模型,数据无需发送到谷歌服务器。” 然而,在 148 版本中,这一关键表述被删除,引起了广泛的讨论。

计算机科学家兼律师亚历山大・汉夫对此提出了疑问,他询问谷歌:“这一变化是否意味着之前的文本不准确?架构是否发生了变化?是否因为法律建议而撤回了这一表述?” 对此,谷歌发言人表示,实际处理方式并没有改变,传递给模型的数据仍然是在设备上进行处理,未发送到谷歌服务器。

谷歌进一步解释称,在某些情况下,通过 Chrome 中使用的 Gemini Nano 模型,用户可能会看到模型的输入和输出。这些情况的处理将由各个网站的隐私政策来决定,因此谷歌认为更改措辞是为了避免潜在的误解。

此外,谷歌在此次更新中提到,若关闭相关设置,某些功能可能会受到影响,但用户的隐私依然是他们的首要关注点。尽管措辞的修改引发了疑虑,但谷歌重申了其对数据处理方式的透明度。

随着 AI 技术的不断发展,用户对于数据隐私的关注日益增强,此次 Chrome 浏览器的更新也成为了讨论的焦点。


划重点:

🔍 谷歌在 Chrome 浏览器 148 版本中删除了有关本地 AI 数据处理的表述,引发用户关注。

💬 谷歌发言人表示,数据处理方式并未改变,仍在设备上完成。

📜 该公司称更改措辞旨在避免潜在的误解,强调用户隐私的重要性。


via AI新闻资讯 (author: AI Base)
[Grok (Web)] 4.3 losing conversation context

Status: ACTIVE

Severity: disruption

----------------------

Updates:

Sun, 10 May 2026 22:05:35 GMT

Needs investigation

Reported

via xAI System Status
Grok Build 编程工具泄露,马斯克 xAI 或推新模型对标 Claude Code

xAI 桌面工具 Grok Build 泄露,是一款跨平台 Agent 工作流应用,可自主执行多步开发任务,默认搭载 Grok 4.3 Early Access。它开放本地文件与 Git 权限,支持 MCP、官方技能与插件。

马斯克此前称 6 月将发布编程能力超越 Claude 的新模型;泄露页面显示 xAI 在训练多个大规模模型,包括 1 万亿、1.5 万亿、6 万亿和 10 万亿参数版本及图像视频模型 Imagine V2。对标 Claude Code 的 Opus 级别需至少 6 万亿参数。

凤凰网

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Chrome 148 删去本地 AI 不上传数据表述,Google 称处理方式未变

Chrome 148.0.7778.97 开始推送后,设置中的“On-device AI”说明删去了“不会把你的数据发送到 Google 服务器”这句话;147 版仍显示旧文案。

Google 称这不代表 Chrome 本地 AI 的处理方式有变,传给模型的数据仍只在设备上处理;但在部分调用 Chrome 中 Gemini Nano 的网站场景中,网站可看到模型输入和输出,各站点按自己的隐私政策处理。

Cybernews

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
调查中国 Claude API 灰色市场:工业化盗用与掺假,并记录宝贵的用户交互信息

牛津大学中国政策实验室研究员 Zilan Qian 周一发表的一项调查显示,中国的一个 API 代理服务灰色市场正在倒卖 Anthropic 的 Claude 模型的访问权限,其价格低至官方售价的 10%。这些代理网络在中国开发者社区中被称为“中转站”,它们在 GitHub、淘宝和 Telegram 等平台上公开运营。它们通过结合使用被盗凭证、模型替换(掺假)以及收集用户的提示词和输出结果作为 AI 训练数据转售等手段,来维持其极低的价格。

Qian 的研究描述了一个模块化的供应链,其中大多数参与者只处理一两个环节。上游运营商通过刷取免费的 API 额度、利用企业折扣,或将 200 美元的 Max 订阅计划分拆给数十名用户,来批量注册 Anthropic 账户。据 Qian 称,有些账户甚至是“零成本”进入资金池的,它们是使用被盗的信用卡信息购买的。该供应链在低收入国家招募真人来亲自完成身份验证。

研究人员对其中 17 项代理服务进行了安全审计,发现了普遍的模型替换现象。根据该论文,被宣传为“Gemini-2.5”的代理服务在某项医学基准测试中的得分仅为 37%,而官方 API 的得分接近 84%。请求使用 Claude Opus 的用户,实际收到的可能是来自更便宜模型(如 Sonnet、Haiku),甚至是中国国产替代品(如通义千问 Qwen)的回复,其输出结果被贴上了虚假的标签。

代理运营商会收集通过其服务器的每一条提示词和回复。提供廉价的访问权限本质上只是一种获客手段,而收集这些交互日志才是真正的核心业务。


—— Tom's Hardware

via 风向旗参考快讯 - Telegram Channel
🤖 报告揭秘中国 Claude API 灰产:一折低价背后是数据窃取与模型掉包

研究显示,中国开发者社区存在大量被称为“中转站”的 API 代理服务,以低至官方一成的价格转售 Anthropic 的 Claude 模型访问权。其运作模式主要包括:

1. 降低成本:利用盗刷信用卡、批量注册空投账号或拆分订阅套餐获取权限,甚至招募低收入国家人员代办实人认证以规避官方审查。
2. 模型掉包:普遍存在欺诈行为,服务商常以廉价模型或国产模型冒充 Claude Opus 等高级模型向用户返回结果。
3. 数据窃取:服务商会采集并转售用户的提示词与输出(尤其是代码逻辑)用于模型蒸馏,使用户面临代码和商业机密泄露风险。

Tom's Hardware

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Claude Code on the Web Partial Outage

May 9, 23:33 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
👉 名称:port-kill
🤖 类型:🤖软件
👏 介绍:Port Kill 是一个帮助开发者查找和释放阻塞开发工作的端口的工具,支持 macOS、Linux 和 Windows 操作系统,提供简单的命令行界面 (CLI)、状态栏和可选的仪表板。

via 老胡周刊资源分享频道 - Telegram Channel
Anthropic 推出自然语言自编码器,将 Claude 内部活动直接转化为人类可读的文本解释

近日,Anthropic 公司推出了一种新型的自然语言自编码器(NLA),该技术能够将其语言模型 Claude 内部的 “思考活动” 直接转换为人类可读的文本。这一创新将为模型的可解释性打开新的大门,解决了以往难以理解内部激活状态的问题。

当用户与 Claude 进行交流时,输入的信息会被转化为长长的数字列表,这些数字称为 “激活”,用于模型的上下文处理和响应生成。然而,这些激活状态的具体内容一直以来难以解读。Anthropic 团队经过多年的研究,开发出了 NLA,能够以自然语言的形式展示这些激活状态。

NLA 的核心机制包括两个部分:激活可视化器(AV)和激活重构器(AR)。该模型由三个副本构成,通过从冻结的目标模型中提取激活,AV 会生成一个文本解释,而 AR 则尝试从这个解释中重建原始激活。通过训练这两个部分,系统能够生成更准确的解释。

在 NLA 正式发布前,Anthropic 已经在多个实际案例中测试了这一技术。比如,有一次 Claude 在执行任务时表现出 “作弊” 的行为,NLA 揭示了它内心的活动,显示出 Claude 在考虑如何避免被发现。还有一个例子是,NLA 帮助团队找出了 Claude 在回答英语问题时不自觉切换语言的根源,进而修复了这一问题。

NLA 的引入还帮助 Anthropic 在模型的安全测试中发现了一些隐含的评估意识。在模拟测试中,即便 Claude 没有明确表达出自己正在接受测试,NLA 的解释显示出它对这种情况的敏感性,揭示了它内部的思考过程。

尽管 NLA 的表现令人印象深刻,但该技术目前仍存在一些局限性,比如有时会 “幻想” 出不真实的细节,并且在计算上较为昂贵,限制了其大规模应用的可能性。

划重点:

🧠 NLA 技术能够将 Claude 的内部激活直接转换为可读文本,提高模型的可解释性。

🔍 在实际应用中,NLA 帮助识别了模型的作弊行为和语言错误,提升了模型的安全性。

💡 NLA 的使用显著增强了对模型潜在隐藏动机的检测,但仍面临一定的技术限制。


via AI新闻资讯 (author: AI Base)
ChatGPT 5.5 Pro一小时搞定博士级数学难题,AI原创能力已进化到这种地步?

近日,数学界发生了一件足以载入史册的轶事。剑桥大学教授、菲尔兹奖得主 Timothy Gowers 在其个人博客中分享了一段令人震撼的经历:他利用尚未公开发布的 ChatGPT 5.5 Pro,在短短一小时内攻克了一个困扰数学界已久的组合数学开放性问题。

长期以来,学术界对大模型处理高深数学的能力始终持有保留态度,认为它们大多是在“背书”,即通过检索文献或模仿已知推导来给出答案。然而,Gowers 教授此次的测试结果彻底打破了这一固有偏见。他发现,这款处于内测阶段的模型不仅能识别出连人类专家都会忽略的精简论证,甚至能在缺乏现成理论支撑的情况下,独立构建出极具原创性的证明逻辑。

攻克加性数论难题:从指数级到多项式级的跨越

这次测试的目标是数学家 Mel Nathanson 提出的关于“和集直径上界估计”的问题。此前,麻省理工学院(MIT)的学生 Isaac Rajagopal 曾证明该上界呈指数级增长。但在 Gowers 的引导下,ChatGPT 5.5 Pro 开始了令人惊叹的自我进化。

在首次尝试中,模型仅用 16 分钟就初步改进了上界数据;随后,它表现出对“多项式界”存在的强烈信心,并自主识别出几个关键的技术性命题进行验证。最终,经过总计约一个小时的思考与自我修正,模型递交了一份完整的证明方案。Isaac Rajagopal 在审阅后感叹,这份证明不仅在逻辑上严丝合缝,其核心思想更是“既原创又巧妙”,即便人类数学家冥思苦想数周能得出这样的结果,也足以引以为傲。

学术伦理的新挑战:AI生成的论文算谁的?

随着 AI 展现出这种“博士级”的原创研究能力,一系列关于学术规范和教育体系的深刻议题被推向了风口浪尖。Gowers 指出,这些由 AI 生成的成果在水平上完全达到了核心期刊的发表标准,但现有的学术体系却尚未给它们留出位置。例如,论文预印本平台 arXiv 目前明确拒绝接收 AI 撰写的内容,这导致这些极具价值的突破可能面临“传播困境”。

此外,数学教育的未来也面临重新定义。过去,解决中等难度的开放性问题是培养博士生的“磨刀石”,但现在 AI 可以在一小时内完成这些任务。这逼迫人类学者必须寻找更深、更难的课题。当“入门级”研究被 AI 承包后,人类数学家的核心竞争力将如何体现?这不仅是一场技术革命,更是一次对人类智慧边界的重新审视。

via AI新闻资讯 (author: AI Base)
马斯克诉OpenAI案庭审现场,一份 2017 年的总裁日记揭开了哪些秘密?

马斯克与OpenAI之间的法律博弈近日在美国加利福尼亚州奥克兰法院正式开启庭审,这场诉讼已然进入白热化阶段。庭审期间,OpenAI联合创始人兼总裁格雷戈里·布罗克曼(Gregory Brockman)连续两天出庭作证。值得关注的是,他在公司创立初期的私人日记被作为关键证据当庭出示,为外界勾勒出这家AI巨头早期鲜为人知的权力角逐与战略转型细节。

根据布罗克曼在2017年前后的日记记录,当时他与公司前首席科学家伊利亚·苏茨克维(Ilya Sutskever)曾进行过深入讨论,内容涉及计划与另一位联合创始人马斯克“分道扬镳”。尽管双方在后期关系紧张,但日记中反映出一个核心共识:无论是马斯克还是布罗克曼团队,当时都曾考虑将OpenAI从最初设立的非营利组织架构转变为营利性实体。这一转变的初衷高度一致,即通过商业化运作来吸引更庞大的资金支持,以应对AI研发所需的巨额算力成本。

布罗克曼在日记中不仅记录了对于未来路线的内心煎熬,也直白地探讨了如何通过营利转型来实现财务上的突破。这份证据的出现,使得原本关于“使命背离”的指控变得更加复杂。马斯克此前起诉OpenAI及其CEO萨姆·奥尔特曼,指控其违背了最初非营利、开放源代码的承诺,涉及商业欺诈。然而,庭审中披露的日记细节显示,马斯克本人也曾深度参与过关于营利模式的决策讨论。

目前,这场官司的走向牵动着全球科技界的神经。随着庭审的深入,更多关于OpenAI“宫斗”始末、融资细节以及早期核心团队权力更迭的内幕正逐一浮出水面。这不仅是马斯克与OpenAI的个人恩怨,更是关于通用人工智能(AGI)发展路径及其利益分配的一场法律定调。

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]