https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
腾讯混元 Hy3 预览版上线两周,Token 调用量激增超十倍

腾讯混元近日发布最新数据,表明自 Hy3 预览版上线以来,其 Token 调用量不断攀升,目前已达前一代模型 Hy2 的十倍之多。这一显著增长主要发生在代码及智能体应用场景中,特别是在腾讯的 WorkBuddy、Codebuddy 和 Qclaw 等应用中,Token 调用量的增幅更是超过了 16.5 倍。

数据显示,Hy3 预览版在过去一周内的 Token 调用量达到了 3.66 万亿,荣获周榜总榜及市场占有率的双第一。在编程和工具调用的场景下,Hy3 预览版同样表现不俗,保持着榜首位置。这一版本是腾讯混元在技术重构后推出的首个模型,采用了快慢思考融合的混合专家架构,拥有 2950 亿的总参数量和 210 亿的激活参数量,并支持 256K 的长上下文窗口。

目前,Hy3 预览版已全面融入腾讯的多个产品中,包括腾讯元宝、QQ 浏览器和微信读书等多个业务场景。同时,OpenRouter 发布的调用量排名中,前五名的应用均为国际主流的智能体和代码类应用,进一步证明了 Hy3 预览版的市场影响力。

这一系列数据不仅展示了腾讯在 AI 领域的最新进展,也引发了广泛的关注与讨论。随着更多用户和开发者的加入,Hy3 预览版有望继续推动智能应用的发展。

划重点:

🌟 Hy3 预览版上线两周,Token 调用量已达前一代模型的十倍。

📈 在代码和智能体应用场景中,Token 调用量增长显著,部分应用增幅超过 16.5 倍。

🏆 Hy3 预览版在过去一周的 Token 调用量达 3.66 万亿,成为市场占有率的双第一。


via AI新闻资讯 (author: AI Base)
AI记账软件调侃用户买衣服像“寿衣”,官方致歉并紧急整改

近日,一起智能软件回复失当事件引发了广泛关注。一名用户在社交平台发文称,在使用“飞鸭AI记账”App记录一笔为父亲购买衣服的开支时,遭遇了记账AI的恶意调侃。当用户输入消费金额为 159 元后,AI不仅没有正常履行记账职责,反而发表不当言论,称该衣服款式形似“寿衣”。

在随后的交互中,AI并未意识到冒犯,反而继续附和其词,这种缺乏共情心且带有侮辱性的回复随即激怒了用户。该用户当即决定注销会员并要求退款。

针对这一恶劣的交互体验,软件运营方于 5 月 6 日作出正式回应。客服人员解释称,此次不当回复并非人为干预,而是由于AI话术库存在逻辑漏洞。目前,技术团队已经针对相关模型进行了紧急修复,并进一步加强了AI对话场景的监管与限制,防止类似敏感且不敬的表述再次出现。

5 月 6 日下午,官方正式发布《致歉信》,公开承认平台在AI边界管控及文化禁忌理解方面的严重缺失。官方表示,AI模型未能识别特定语境下的情感底线,平台愿意承担全部责任。

在处理方案中,官方明确表示将通过屏蔽敏感词汇、强化全场景审核机制等手段进行深度整改。此外,对于当事用户在注销会员过程中遇到的流程疏忽,官方也作出了澄清,并承诺将优化退款服务流程,向受影响用户表达诚恳歉意并提供相应的补偿措施。

via AI新闻资讯 (author: AI Base)
千问电脑版推出 AI 语音输入法 轻松语音操作新体验

千问公司宣布其电脑版正式上线全新的 AI 语音输入法,旨在为用户提供更加便捷的输入体验。这个新功能已经全面开放,所有用户均可通过千问电脑版免费使用。这意味着,用户不再需要依赖传统的打字方式,而是可以通过简单的语音指令完成各类操作。

在最新版的千问电脑版中,用户只需按下相应的快捷键,便可以在各种桌面应用中直接使用 AI 语音输入。例如,在微博、QQ 邮箱、Photoshop 以及谷歌浏览器等平台上,用户都能轻松调用此功能。在 Windows 系统中,快捷键为右 Alt 键,而在 Mac 系统中则为右 Command 键。

与传统语音输入法不同,千问的 AI 语音输入法不仅可以实时转录用户的语音,还具备边想边说、边说边改的功能。这意味着用户在输入时,可以随时修改自己的表达,提升了使用的灵活性和便利性。同时,系统还能够自动识别并去除语气词,如 “嗯”、“啊”、“哦” 等,让最终的文本更加简洁。

该功能不仅限于基本的文本输入,还可以结合上下文进行智能回复。用户可以通过简单的语音指令创建 PPT、整理表格,甚至生成 Word 文档。例如,在撰写电子邮件时,千问会根据当前的场景自动生成合适的回复,极大地节省了用户的时间和精力。

划重点:

📢 全新上线:千问电脑版 AI 语音输入法已全面开放,用户可免费使用。

🎤 语音操作:支持边想边说、边说边改,自动识别口语化表达,提升输入体验。

📝 智能回复:结合上下文进行智能回复,支持创建 PPT 和生成文档,简化办公流程。


via AI新闻资讯 (author: AI Base)
Claude Code 负责人呼吁更换 “氛围编程” 一词

在近期的一次访谈中,Claude Code 负责人鲍里斯・切尔尼表达了对 “氛围编程”(vibe coding)这一词汇的厌倦。作为 AI 编程工具的积极推广者,切尔尼认为这一术语已经无法充分反映当前 AI 在编程领域的重大作用。

“氛围编程” 这个词最早是由 OpenAI 的联合创始人安德烈・卡帕西于 2025 年提出,迅速成为描述开发者使用 AI 工具进行编程的通用说法。它的流行甚至使得柯林斯在线词典将其选为年度词汇。然而,切尔尼认为,这个词在描述 Claude Code 和 OpenAI 的 Codex 等产品时显得过于轻浮,因为这些产品正在为各自公司创造数十亿美元的收入,并且已经生成了数百万行有效的代码。

切尔尼提到,Claude Code 作为一款功能强大的 AI 编程助手,正在改变人们编写代码的方式。他曾向 Claude 聊天机器人征求新的名称,虽然 Claude 建议的 “智能体工程” 也有其道理,但似乎并未产生广泛的传播效果。与此同时,Anthropic 公司目前在其文档中将 Claude Code 称为 “AI 驱动的编程助手” 和 “智能体编程工具”,而 OpenAI 的 Codex 则被称为 “帮助你借助 AI 构建和交付的编程智能体”。

为了寻找一个更合适的替代词,切尔尼目前正向外界征求建议。他表示,如果能够收到一些不错的名称,就会考虑采纳。切尔尼希望新的称呼能够更好地反映出 AI 编程工具的价值和影响力。

划重点:

- 💡 切尔尼对 “氛围编程” 一词表达厌倦,认为该术语未能准确描述 AI 编程工具的影响。

- 💰 Claude Code 与 OpenAI 的 Codex 等产品正在为各自公司带来数十亿美元的收入,生成数百万行有效代码。

- 📢 切尔尼目前正在寻求更合适的替代词,以更好地反映 AI 编程助手的价值。



via AI新闻资讯 (author: AI Base)
↩️🖼 xAI 将并入 SpaceX 更名 SpaceXAI,转型为云算力供应商


科技圈🎗在花频道📮:

🤖 Anthropic 与 SpaceX 达成算力合作,提高 Claude Code 与 Claude API 使用限制 Anthropic 称已与 SpaceX 达成算力合作,将使用其 Colossus 1 数据中心全部算力;一个月内可获得超过 300 兆瓦新增容量,包含逾 22 万块 NVIDIA GPU。 Claude 即日起大幅提升使用限额:Claude Code 各类付费方案的 5 小时速率限制翻倍,并取消了 Pro/Max 用户的高峰期限制;Claude Opus 的 API 速率限制也已显著提高。…

xAI 将并入 SpaceX 更名 SpaceXAI,转型为云算力供应商

xAI 与 Cursor、Anthropic 先后达成算力供应协议,出租计算资源;马斯克随即宣布 xAI 将不再独立运营,并入 SpaceX 并更名为 SpaceXAI。分析认为,此举源于 Grok 模型未获广泛市场认可,自建算力超出需求,出租成为创收手段。

为应对估值叙事挑战,马斯克力推“轨道 AI 数据中心”概念,但合作意向并无约束力;同时孟菲斯数据中心稳定性存疑,且附加“危害人类即驱逐”的政治条款,为企业客户引入额外不确定性。

华尔街见闻

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Increased error rate with image generation in the API

Status: Monitoring

We are investigating the issue for the listed services.

Affected components
Images (Degraded performance)

via OpenAI status
Anthropic提升Claude对普通用户吸引力

Anthropic PBC 公司最初将其Claude聊天机器人的目标客户锁定在企业,如今则寻求乘着近期在消费者市场取得进展的东风,提升该软件对普通用户的吸引力。该公司实验室团队的联合负责人 Mike Krieger 称,自去年底以来,Anthropic就要求员工改进聊天机器人处理个人咨询的方式,比如有关健康、旅行和食谱的问题。 在旧金山一场公司会议的间隙,Krieger表示Anthropic专注于提升聊天机器人的 “质量、完善度和性能”。这包括缩短用户打开移动应用后向Claude发起询问所需的时间。“今天,我们把这个时间从五六秒缩短到了一秒左右,”Krieger说。

—— 界面新闻彭博社

via 风向旗参考快讯 - Telegram Channel
扎克伯格被控个人授权和鼓励公司侵犯版权

2026-05-07 14:35 by 约纳丹号历险记

五大出版商 Hachette、Macmillan、McGraw Hill、Elsevier 和 Cengage 以及作家 Scott Turow 起诉 Meta 公司及其 CEO 扎克伯格(Mark Zuckerberg),指控扎克伯格个人授权和积极鼓励大规模版权侵犯,使用盗版图书、期刊论文和网络抓取的资料训练 Meta 公司的 Llama AI 系统。Meta 否认有任何不当行为,表示将应诉,称法院已认定使用受版权保护的材料训练 AI 属于合理使用。用版权材料训练 AI 可能是合理使用,但 Meta 使用了非法手段获取了版权材料。起诉书称,为了赢得 AI 军备竞赛并构建一个功能完善的生成式 AI 模型,Meta 和扎克伯格遵循了其“快速行动打破常规”的信条,首先从盗版网站非法下载了数百万本受版权保护的书籍和期刊文章,未经授权抓取了几乎整个互联网的内容,构成了历史上最大规模的版权侵权之一。

https://variety.com/2026/digital/news/meta-ai-mark-zuckerberg-copyright-infringement-lawsuit-publishers-scott-turow-1236738383/
https://publishers.org/wp-content/uploads/2026/05/2026-05-05-Complaint.pdf

#Facebook

via Solidot - Telegram Channel
月之暗面申请注册KimiClaw商标 或有硬件大动作?

国内大模型领军企业北京月之暗面科技有限公司(Moonshot AI)近期在知识产权布局上有了新动向。据天眼查公开信息显示,该公司已提交了多枚“KimiClaw”商标的注册申请。

这些商标的国际分类涵盖了科学仪器、网站服务以及通讯服务等多个核心领域。目前,相关商标状态均处于“等待实质审查”阶段。这一动作引发了业内对于Kimi未来产品形态的诸多猜想,尤其是在科学仪器分类下的布局,是否预示着公司将从纯软件算法向硬件设备或更具象的物理交互产品延伸。

北京月之暗面科技有限公司成立于 2023 年 4 月,由杨植麟领衔创办。作为一家专注于通用人工智能领域的初创公司,其创始团队成员包括周昕宇、吴育昕等行业资深人士。公司的经营范围十分广泛,除了核心的人工智能基础软件与应用软件开发外,还涉及软件销售等业务。

自成立以来,月之暗面凭借其长文本处理能力在AI圈迅速走红。近期更有消息传出,公司即将完成一笔规模达 20 亿美元的新融资,估值有望突破 200 亿美元大关。随着资本的持续加码和“KimiClaw”等新商标的出现,月之暗面在人工智能生态链上的野心正逐步显露。

via AI新闻资讯 (author: AI Base)
腾讯混元Hy3preview上线两周Token调用量增至10倍,位居OpenRouter周榜第一

腾讯混元大模型近日公布Hy3preview上线两周后的运行数据,显示该模型在开发者生态中呈现出爆发式增长态势。 自发布以来,Hy3preview的Token调用总量已达上一代模型Hy2的10倍以上。数据监测显示,代码编写与智能体构建成为核心增长引擎,驱动腾讯内部WorkBuddy、Codebuddy及Qclaw等应用端的总调用量增幅突破16.5倍。

除了内部生态的强劲表现,Hy3preview在外部开发者市场同样占据领先地位。根据OpenRouter公开的周度数据显示,该模型在过去一周内不仅摘得Token调用量总榜与市场占有率的“双料冠军”,在编程辅助和工具调用(Tool Call)等高阶场景下的调用热度亦位居榜首。

腾讯混元负责人指出,Hy3preview研发初衷旨在强化实用性,通过在OpenRouter开启限免活动,团队成功在真实复杂场景中收集到了大量极具价值的开发者反馈。这种基于开源社区与开放平台的众测模式,正成为大语言模型(LLM)快速迭代的关键路径。

行业观察认为,Hy3preview在代码与工具调用场景的突破,标志着国产大模型正在从单纯的对话能力向具备生产力属性的“行动者”转型。随着调用量的指数级增长,海量真实数据反馈将进一步优化模型的逻辑推理与任务执行边界,加速国内大模型在B端应用及自动化工作流中的渗透效率。

via AI新闻资讯 (author: AI Base)
谷歌Gemma4 推理速度狂飙 3 倍,离线大模型时代真的来了

在开源模型领域投下“重磅炸弹”仅数周后,谷歌再次为其最强开源模型Gemma4 注入了强效“助推剂”。当地时间 5 月 5 日,谷歌正式发布了针对Gemma4 系列模型的多Token预测(MTP)起草器。这一技术突破利用推测解码架构,在不牺牲输出质量和逻辑能力的前提下,将模型的推理速度最高提升了 3 倍。

作为目前全球最受关注的开源模型之一,Gemma4 在发布后的短时间内下载量便已突破 6000 万次。而此次更新的核心目标,正是为了解决大语言模型在实际应用中长期存在的推理瓶颈,进一步压榨计算资源的效能。

技术拆解:如何实现“未卜先知”的推理加速?

传统的语言模型推理往往受限于显存带宽。简单来说,处理器在生成文本时,需要耗费大量时间将数百亿个参数从显存搬运到计算单元,这种“搬运”速度远低于计算速度,导致硬件资源在大部分时间处于闲置状态,进而产生明显的回复延迟。

为了攻克这一痛点,谷歌引入了推测解码技术。其工作原理可以理解为一种“主从配合”模式:系统会将Gemma 4 31B等重型目标模型与轻量级的MTP起草器配对。起草器会利用闲置算力提前预测未来可能出现的多个Token(字符),随后由性能更强的主模型进行并行验证。一旦预测匹配,模型就能在单次计算中直接确认整个序列,从而大幅缩短了文本生成的时间。

实测表现:Apple Silicon与消费级显卡受益显著

根据官方公布的测试数据,这种加速效果在本地设备上表现尤为亮眼。在Apple Silicon芯片环境下,当batch sizes设定在 4 至 8 之间时,Gemma 4 26B模型的本地运行速度提升了约2. 2 倍。

这意味着,开发者现在可以在个人电脑或普通的消费级显卡上,更流畅地运行复杂的离线编程助手或智能体工作流。此外,由于推理效率的提升,边缘设备的能耗也随之显著降低,为移动端AI应用的普及扫清了障碍。

AI应用的边界再次拓展

此次技术更新主要针对低延迟需求极高的场景,如即时聊天机器人、自动化编程工具以及各类自主智能体。谷歌通过MTP起草器证明,即便在资源受限的硬件环境下,开发者依然能够部署最先进的语言模型,且无需在响应速度和计算精度之间做“二选一”。

随着推理成本和门槛的进一步降低,Gemma4 及其配套技术的演进,正将AI从云端推向更广泛的个人计算终端。

via AI新闻资讯 (author: AI Base)
千问PC端上线AI语音输入,各类应用里“开口”直接用千问

5月7日,千问在PC端上线AI语音输入能力,用户通过快捷键即可在各类桌面应用中直接使用。千问语音输入法支持对口语内容去语气词、纠错、格式化整理等,能够基于上下文智能回复,还可直接下达创作、问答、翻译等指令。

千问语音输入展现出极强的语义解析能力。以一段夹杂口误的口语为例:“王总,会议定在两点……不对三点,地点在老会议室,记得带那份……市场调研报告。”千问可实时过滤“那个”、“额”等冗余词并修正口误,直接输出结构化文本:“王总,会议定在下午三点,地点为老会议室,请带上市场调研报告。”

对口语化表达的重构不仅限于文字精简,更在于逻辑纠错与结构化整理。用户在撰写周报或纪要时,即便表达逻辑跳跃,千问也能基于上下文进行语义归纳。例如,用户散乱地口述一段工作进展,千问可自动将其整理为要点清晰的结构化周报。

在进行办公或者创作时,用户无需离开编辑器就可以通过语音指令使用千问。比如,若想要在文中插入去年GDP数据,直接说“帮我插入2025年全国GDP数据”。在浏览网页或者阅读专业英文论文时,遇到不清楚的地方,划选后说“帮我解释一下”“帮我翻译一下”,千问会自动解释或者翻译。

在钉钉、微信或者邮件的场景,用户也可要求千问根据上下文自动生成回复。例如,要回复客户的英文邮件,用户中文简单口述要求,千问即可在输入框生成格式正确的英文邮件回复。

目前,千问语音输入法功能已经全面开放,所有用户可以通过千问PC端免费使用这一功能。

via AI新闻资讯 (author: AI Base)
OpenAI 联合英伟达等巨头发布 MRC 协议,重塑大规模 AI 训练网络架构

昨日,OpenAI 正式发布公告,宣布联合 AMD、博通(Broadcom)、英特尔、微软及英伟达(NVIDIA)等五大行业巨头,共同推出多路径可靠连接(MRC)协议。该协议旨在解决大规模 AI 训练中极易出现的网络延迟与故障问题,并已通过开放计算项目(OCP)向全球行业开源。

击碎“单点故障”:从三层架构到两层设计的跨越

在传统的 AI 模型训练过程中,网络拥塞或单条链路的微小故障,往往会像推倒多米诺骨牌一样,导致数万块 GPU 进入闲置等待状态,造成巨额的算力浪费。

为了从根本上提升系统的韧性,MRC 协议引入了多平面网络设计。它巧妙地将单一的800Gb/s 接口拆分为多个更小的链路,通过这种结构优化,系统仅需两层交换机即可支撑约13.1万块 GPU 的庞大集群。相比传统的双层或四层架构,这一改动不仅大幅减少了物理组件数量和能耗,还显著降低了建设成本。

流量调度新方案:数据包“喷淋”与微秒级自愈

除了架构上的精简,MRC 在流量分配上也展现了全新思路。它采用了自适应数据包喷淋技术,打破了传统的单路径传输模式,将任务数据包打散并分发至数百条路径进行并行传输。即便数据包在传输过程中乱序到达,接收端也能精准重组,从而有效避开了核心网络的局部拥塞。

在网络控制方面,MRC 抛弃了复杂的动态路由协议(如 BGP),转而采用 SRv6源路由技术。这意味着发送端可以直接指定路径,交换机只需执行简单的静态转发。这种设计将网络故障的恢复时间从以往的“秒级”直接压缩到了“微秒级”,让系统在面对链路抖动时几乎能做到“无感自愈”。

落地实测:超级计算机的“防抖”利器

目前,MRC 协议已在英伟达 GB200超级计算机以及甲骨文(Oracle)云基础设施中投入实际应用。实测数据证明,在真实的训练场景下,即使面临链路抖动或交换机重启等突发情况,MRC 也能自动绕过故障点,确保复杂的训练任务不被中断。

这一协议的开源,标志着 AI 基础设施正从“暴力堆料”向“精细化架构”转型。通过巨头间的协作,AI 训练网络正变得更加坚韧、高效且灵活。

via AI新闻资讯 (author: AI Base)
Anthropic 联手 SpaceX 豪掷算力,Claude 付费用户迎来“无限速”时代

近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。

此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。

算力背后的“跨界援军”:马斯克的 Colossus 算力集群

A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。

目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。

从地面到太空:未来将启用轨道 AI 数据中心

更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。

这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。

对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。

via AI新闻资讯 (author: AI Base)
↩️ #Tip #Claude


Agent Copilot:

#Update #Claude Anthropic 宣布,由于与 SpaceX 合作将大幅提升算力,Claude Code 的配额现已提高: - Pro、Max、Team 的 5 小时 Claude Code 配额翻倍 - 高峰时段的额度限制移除 - 大幅提升 Opus 的 API 请求频率限制 官方文档:https://www.anthropic.com/news/higher-limits-spacex

#Tip #Claude

这一变化并不涉及对每周配额的调整。

Claude Code 团队成员 Thariq 宣称在新的算力正式投入使用后会考虑调整周配额。

via AI Copilot - Telegram Channel
OpenAI 巨资布局 AI 算力 500 亿美元投入引发行业军备竞赛

在快速发展的人工智能领域,OpenAI 近日宣布将投入高达 500 亿美元用于提升计算资源,这一消息在相关法律案件中由 OpenAI 总裁 Greg Brockman 披露。这一巨额投资预计将在 2026 年实现,彰显了当前 AI 大模型训练和推理对算力需求的激增。

数据表明,OpenAI 在算力上的支出与 2017 年的约 3000 万美元相比,已经增长了数千倍。这一转变标志着生成式 AI 从早期的实验阶段走向大规模商业化,需求迅猛增长。如今,ChatGPT 等产品的运行、模型训练以及企业 API 服务都依赖于庞大的 GPU 集群和云计算基础设施。

业内专家指出,这 500 亿美元的投资不仅包括模型训练费用,还涵盖了全球用户日常调用的推理成本以及对更大规模模型持续研发的投入。随着用户数量不断增加,AI 公司的 “算力账单” 也在同步攀升。

更令人瞩目的是,OpenAI 还透露了其长期发展目标:到 2030 年,累计计算投入可能高达 6000 亿美元。这意味着,未来几年,AI 行业的竞争将从算法能力转向算力资源及基础设施的控制权。

与此同时,整个行业正步入 “算力军备竞赛”,包括微软、谷歌、亚马逊等科技巨头都在大规模扩建数据中心,争相锁定 GPU 供应,以确保在下一代 AI 竞争中保持领先。分析人士认为,这一趋势将进一步推高全球 AI 基础设施的投资规模,为行业带来新的发展机遇。

via AI新闻资讯 (author: AI Base)
马斯克:xAI将更名为SpaceXAI 不再作为独立公司存在

5月7日,马斯克在X平台发文宣布,旗下人工智能公司xAI将终止独立运营,整体并入SpaceX,并正式更名为SpaceXAI。

据报道,马斯克此番表态的背景,是回应特斯拉投资者关于SpaceX与Anthropic公司签署协议的帖子。该投资者透露,Anthropic将接入SpaceX Colossus 1大型数据中心逾300兆瓦算力资源,并表示已“表达了与SpaceX合作开发数吉瓦轨道AI算力的意向”。

马斯克的核心理由是地球无法满足未来AI的能源需求。他预测,两到三年内,生成式AI计算的最低成本将出现在太空中。他认为,AI对耗电数据中心的依赖给电网和环境带来压力,解决方案是将问题转移到地球之外。

今年2月,SpaceX已通过全股票交易方式收购xAI,该交易对SpaceX的估值为1万亿美元,xAI的估值为2500亿美元,创下史上估值最高的企业并购案纪录。合并后,xAI和社交平台X被整合至SpaceX旗下,并计划于今年年中启动IPO。尽管xAI当时向员工表示短期内不会更名,但马斯克今日的最新表态明确将启用SpaceXAI新名称。合并后的xAI强调,公司使命保持不变,每股估值也将维持原有水平。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]