https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
谷歌、OpenAI为实习生开出全职级薪水抢人

在AI竞赛的背景下,原本不起眼的实习生岗位如今也变得炙手可热。头部AI公司正在竞相争夺全球顶级人才,不惜开出高额薪酬。它们同样投入重金,挖掘那些尚未崭露头角的潜力股。目前在AI行业,短期、初级岗位薪资已与其它行业的全职岗位薪资水平不相上下。OpenAI、Anthropic、谷歌DeepMind和Meta就通过一些薪资丰厚的实习、研究员及驻留项目吸引优秀人才。OpenAI驻留项目为期六个月,参与者将以全职员工身份加入公司,与研发团队共同开展前沿AI项目。驻留人员将获得导师指导,参与正在进行的研究项目,并有机会在项目结束后转为正式员工。驻留期间的月薪为1.83万美元。

—— 凤凰网科技商业内幕

via 风向旗参考快讯 - Telegram Channel
🚀 AI 行业资本支出激增与模型公司估值大幅攀升

基础设施投入与需求现状
2025年人工智能行业的发展重心显著向基础设施建设者倾斜。摩根士丹利将AI数据中心的支出增长预测从最初的20-25%上调至68%,预计总支出将在2025年达到4700亿美元,并于2026年增至6200亿美元。其中,OpenAI已规划了总额达1.4万亿美元的新数据中心交易。目前,相关公司报告称新增产能的需求仍高于供应,这与20世纪90年代末互联网泡沫时期的产能过剩有所不同。然而,电力供应等瓶颈可能减缓建设进度,这使得具备大规模管理经验的公司在明年更具竞争优势。

模型开发与估值波动
领先的模型训练公司估值在过去一年中大幅增长。随着技术重心转向后期训练(post-training)技术,顶尖模型的性能持续提升。OpenAI的估值据报道正向8000亿美元以上冲刺,远高于此前的1570亿美元;Anthropic的目标估值超过3000亿美元,而xAI的估值预计达到2300亿美元。与此同时,模型输出的代币(token)价格持续下降。以谷歌上周推出的Gemini 3 Flash为例,获取同等智能水平的成本已从两年前GPT-4发布时的65美元降至1.10美元,符合行业领先模型每年10倍的性价比提升标准。

市场表现与应用进展
在应用端,ChatGPT的周活跃用户数已从一年前的3亿增长至超过8亿,编程助手已成为软件开发领域的主流工具。尽管如此,2025年尚未出现新的消费级“杀手级应用”,企业在生成式AI上的支出爆发点也尚未明确。目前,AI热潮主要由少数财务状况稳健的科技巨头支撑。包括英伟达、博通及领先的云服务商在内的八家美国科技公司市值均已达到或超过1万亿美元,总市值达23万亿美元。今年前九个月,这些公司在资本支出增加1000亿美元的情况下,合计产生的自由现金流仍维持在约3000亿美元的水平。若AI建设在2026年继续保持当前增速,相关财务压力可能会进一步显现。

(FT)

via 茶馆 - Telegram Channel
🏢 甲骨文否认 OpenAI 数据中心建设延期传闻

甲骨文(Oracle)周五否认了有关其推迟 OpenAI 相关数据中心建设的媒体报道。此前,彭博社报道称,受劳动力和材料短缺影响,甲骨文将部分为 OpenAI 开发的数据中心竣工日期从原计划的 2027 年推迟至 2028 年。甲骨文发言人 Michael Egbert 在一份声明中表示,目前没有任何站点出现延期,所有里程碑均按计划推进,公司与 OpenAI 保持完全一致,并有信心履行合同承诺及未来的扩张计划。

受此消息影响,甲骨文股价在周五交易中一度下跌 3.6%,随后跌幅收窄至 2.8%。其他人工智能相关股票也出现波动,英伟达、超微半导体(AMD)、美光科技和 Arm 的跌幅在 2% 至 4.5% 之间。此外,博通(Broadcom)因警告定制 AI 处理器利润率下降,股价下跌超过 11%。

甲骨文今年凭借与 OpenAI 达成的 3000 亿美元数据中心协议进入 AI 基础设施竞赛,但也导致其债务规模大幅增加。周四,甲骨文债务违约保险成本飙升至至少五年来的最高水平。尽管该公司在 9 月份曾报告超过 4500 亿美元的积压订单,但其股价今年以来的涨幅已收窄至 13%,回吐了 9 月份的所有涨幅。分析人士指出,除芯片供应外,电力供应和建筑进度等实际因素正成为数据中心扩张的瓶颈,投资者对 AI 支出的回报表现出更高的敏感性。目前 OpenAI 尚未对此事发表评论。

(路透社)

via 茶馆 - Telegram Channel
四台Mac Studio合体变身AI集群 1.5TB内存、硬件成本近30万

近日知名工程师Jeff Geerling完成了一项挑战,利用macOS 26.2最新的系统特性,将四台M3 Ultra Mac Studio成功合体,打造出一台拥有1.5TB统一内存的AI计算集群。这次集群成功的关键在于macOS 26.2引入的一项核心功能RDMA over Thunderbolt 5,通过Thunderbolt 5接口,允许一台Mac直接读取另一台的内存,无需CPU干预。

在Geekbench 6的多核测试中,该集群轻松超越了Dell Pro Max with GB10和Framework Desktop,双精度浮点数性能更是达到了1TFLOPS以上,而闲置功耗低于10W。

在AI推理方面,单机运行Llama 3.2 3B模型时,每秒可处理154.6个token;在运行大型Llama 3.1 70B模型时,每秒可维持14.1个token,这两个测试的性能都远超其他对手。

此外,在尝试运行DeepSeek R1 671B超大型模型时,其他系统均无法正常运行,而Mac Studio 集群凭借其1.5TB的统一内存,完成了这一挑战。

RDMA over Thunderbolt 5在这个AI集群中发挥了关键作用,在启用RDMA后,内存访问延迟从TCP的300微秒降至50微秒以下。

在使用exo系统测试Qwen3 235B时,四台设备每秒可处理31.9个token,比llama.cpp TCP快了一倍以上;DeepSeek V3.1更是达到了每秒32.5个token。

虽然RDMA表现出色,但在高负荷时偶尔会出现系统崩溃的情况

另外值得注意的是,由Mac Studio组成的AI集群总硬件成本约为40000美元(约合人民币28万元),相比其他两个平台,这一价格更贵。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
长城汽车全面升级!哈弗猛龙将首次搭载城区 NOA,智能驾驶加速普及

在智能汽车技术快速发展的今天,长城汽车再一次引起了业界的关注。继魏牌蓝山成功搭载智能辅助驾驶系统后,长城旗下的核心品牌哈弗也将迎来一项重大升级 —— 首次在其车型上搭载城区 NOA(导航辅助驾驶)。这一消息无疑为长城的销量主力注入了新动力。

据了解,哈弗品牌在 2023 年前九个月的销量已突破 52.8 万辆,占长城汽车集团总销量的 57%。作为哈弗品牌首款搭载城区 NOA 的车型,猛龙的推出标志着长城在智能化领域迈出了重要一步,城区 NOA 的普及也预示着未来智能驾驶将向更广泛的市场渗透,预计将降至 15 万元的车型价格区间。

不仅如此,长城在智能化方面采取了多元化的供应商策略。哈弗猛龙的中阶方案最初选择了一家知名供应商,但后来由于各种原因进行更换。目前,猛龙的高阶版本将搭载元戎启行的方案,尽管元戎在魏牌蓝山中使用的是 VLA(视觉语言动作模型),但在猛龙上则使用了不同的端到端技术。由于 VLA 技术对算力的要求更高,猛龙顶配车型使用的英伟达 OrinY 芯片,算力为 200TOPS,无法支持更高级别的 VLA。

元戎启行与长城的进一步合作也在不断深化。长城不仅在供应商选择上进行优化,还于去年向元戎投资了 1 亿美元,成为国内智能驾驶领域最大的一笔融资。这一举措进一步巩固了长城在智能驾驶领域的竞争力,同时也为即将推出的城区 NOA 方案提供了更强的技术支持。

在这一轮的智能化浪潮中,哈弗猛龙的推出不仅为消费者带来了更多选择,也让预算在 15 万元左右的购车者可以期待更为智能的驾驶体验。可以想象,未来购车时询问 “这车支不支持城区 NOA?” 将成为消费者的新标准。

via AI新闻资讯 (author: AI Base)
DeepSeek 与元宝 “互动”!AI 助手日渐融入我们的生活

在科技迅速发展的今天,AI 助手已逐渐成为人们日常生活中不可或缺的一部分。12 月 24 日,DeepSeek 官方在小红书上与元宝互动,点赞并回应了元宝发布的年度报告,这一罕见的公开互动引起了行业的广泛关注。

根据《元宝 ×DeepSeek 年度报告》,自今年 2 月接入 DeepSeek 以来,元宝的用户规模稳步增长,并在 12 月 14 日达到了使用高峰,增长幅度超过 100 倍。这一成绩使元宝稳居国内原生 AI 应用的前三甲。值得一提的是,DeepSeek 在元宝中已经不仅仅是一个问答工具,它更像是一个可以深入交流的思考伙伴。在使用过程中,用户与 DeepSeek 的对话中,超过三分之一是围绕同一个问题展开的连续多轮提问,这显示出用户对 AI 的依赖性和信任度。

在用户的使用场景中,DeepSeek 似乎成了一个全天候的 “个人助手”。白天,它陪伴用户工作,而到了晚上,元宝 APP 的使用则明显增多,用户用它来聊天和放松。同时,在微信中,元宝也随时待命,满足用户的各种需求。这种变化反映出 AI 助手从偶尔使用逐渐变成日常生活的一部分。

为了增强用户体验,元宝团队持续对 DeepSeek 进行技术优化,提高响应效率和速度。元宝还推出了 “DeepSeek+” 策略,通过自研的大模型补充多模态能力,确保在用户互动时,AI 助手能够提供更全面的信息和服务。

现在,用户在使用元宝时,不仅能得到官方的 DeepSeek 支持,还可以享受到更多额外功能,比如图像处理、打电话和文件理解等。更令人兴奋的是,用户在进行社交活动时,可以随时在评论区 @元宝进行互动,无需切换应用,AI 助手便能轻松融入用户的日常生活。

随着越来越多的人依赖于 AI 助手,DeepSeek 与元宝的 “双向奔赴” 不仅推动了 AI 技术的进步,也使得 AI 逐渐成为人们工作和生活的好帮手。

via AI新闻资讯 (author: AI Base)
微软辟谣“重写 Windows”传闻:暂无使用 AI 和 Rust 彻底更替代码的计划

近日,关于微软将利用人工智能(AI)和 Rust 编程语言彻底重写 Windows 操作系统的消息在技术圈引发了广泛热议。起因是微软杰出工程师盖伦·亨特在招聘信息中提到,计划在2030年前通过 AI 辅助,实现每月迁移百万行代码的目标,以替代现有的 C/C++ 代码库。

针对这一传闻,微软官方正式发布声明予以澄清。据 AIbase 了解,微软明确表示目前并没有使用 Rust 和人工智能全面重构Windows11及后续操作系统的计划。盖伦·亨特随后也在其原始招聘信息中增加说明,强调虽然公司正在开发支持跨语言迁移的新技术,但 Windows 并不会被 Rust 彻底重写,也不会完全由 AI 驱动。

尽管微软确实在积极推进使用 Rust 重构部分内核组件以提升安全性,但对于大规模使用 AI 自动生成或修改底层系统代码,官方态度依然谨慎。目前,微软内部已有约30% 的代码由 AI 生成,且首席技术官预测到2030年这一比例在全行业可能达到95%。然而,对于像 Windows 这样复杂的操作系统,完全脱离人工审核的 AI 编码仍被视为存在潜在风险。

划重点:

🛑 官方辟谣:微软正式澄清,目前没有计划使用 AI 或 Rust 编程语言彻底重写Windows11或其后续操作系统。
💻 技术局限:虽然微软正在研发语言迁移技术,并部分使用 Rust 提升内核安全,但“AI 驱动系统开发”的愿景短期内不会在 Windows 上全面落地。
🤖 AI 趋势:尽管微软内部已有30% 代码由 AI 生成,但专家和专业用户仍对大规模 AI 编码可能带来的稳定性及安全问题持观望态度。

via AI新闻资讯 (author: AI Base)
清华开源 TurboDiffusion:AI 视频生成步入“秒级”时代,最高提速达 200 倍

近日,清华大学 TSAIL 实验室联合生数科技推出了全新的开源视频生成加速框架TurboDiffusion。这一突破性的技术框架在确保视频生成质量不减的前提下,成功将端到端扩散生成的推理速度提升了100至200倍。

AIbase 获悉,该框架为了实现极致的生成效率,集成了 SageAttention 和 SLA(稀疏线性注意力机制)。这些技术显著降低了模型在处理高分辨率视频内容时的计算开销。此外,开发团队还引入了 rCM(时间步蒸馏)技术,通过大幅减少扩散过程中的采样步数,让视频生成在保持视觉一致性的同时,实现了极低的计算延迟。

根据GitHub公布的实测数据,TurboDiffusion 的加速表现令人震惊。在单张 RTX5090显卡上,原本生成5秒视频需要184秒,而使用该框架后仅需1.9秒即可完成。对于参数量更大的模型,其提升更为显著:原本耗时约1.2小时的720P 视频生成任务,现在被压缩到了短短38秒,性能远超目前市面上的同类加速方案。

目前,TurboDiffusion 已开源并提供了多种规格的模型权重供用户下载。针对消费级显卡(如 RTX4090/5090)和工业级显卡(如 H100),团队分别提供了量化版与非量化版的优化方案。这意味着无论是个人创作者还是企业级用户,都能通过这一工具显著提升 AI 视频的生产效率。

github:https://github.com/thu-ml/TurboDiffusion

划重点:

效能飞跃:清华开源框架将 AI 视频生成提速最高200倍,RTX5090显卡可实现1.9秒产出5秒视频。
🛠️ 技术核心:通过 SageAttention、稀疏线性注意力机制以及时间步蒸馏技术,在不损耗画质的情况下大幅削减算力需求。
🌐 全面适配:框架已开放模型权重,并针对不同显存容量的显卡提供了量化优化方案,极大降低了高性能 AI 视频生成的门槛。

via AI新闻资讯 (author: AI Base)
200台机器人上岗!京东物流“智狼”远征英国,加速织就全球供应链网

12月25日,京东物流宣布其在英国的首个“智狼仓”正式投入使用。作为京东在英国打造的自动化标杆项目,该仓库占地面积超过3000平方米,内部配置了近200台京东物流自主研发的“智狼机器人”。

得益于高度自动化的仓储管理,该智狼仓的拣货及出库效率相比传统模式实现了约4倍的显著提升,大幅增强了京东在当地的履约响应能力。

在前端业务方面,京东旗下欧洲线上零售平台 Joybuy 已在英国、德国、法国、荷兰、比利时及卢森堡等欧洲核心国家开启试运营。配合仓配一体化优势,Joybuy 在多个城市已实现“最快当日达”或“次日达”的高效配送体验。

此次英国智狼仓的落地,是京东物流“全球织网计划”的又一重要节点。截至目前,京东物流已在海外23个国家和地区运营超过130个海外仓,总管理面积逾130万平方米,并开通了数十条国际货运航线,持续完善其全球供应链网络。

via AI新闻资讯 (author: AI Base)
解锁机器人的 3D 视觉:原力灵机推出 GeoVLA 框架,颠覆传统 VLA 模型!

在人工智能和机器人技术快速发展的今天,视觉 - 语言 - 行动(VLA)模型被广泛认为是构建通用机器人的关键。然而,许多现有的 VLA 模型(如 OpenVLA、RT-2等)在处理复杂的非结构化环境时暴露出一个严重的短板:空间失明。它们依赖于2D RGB 图像作为视觉输入,导致模型在三维空间中的表现受限,难以准确判断物体的深度和位置。

为了解决这一问题,原力灵机的研究团队推出了一种全新的 VLA 框架 ——GeoVLA。该框架在保持现有视觉 - 语言模型(VLM)强大预训练能力的同时,采用了创新的双流架构。具体来说,GeoVLA 引入了专用的点云嵌入网络(PEN)和空间感知动作专家(3DAE),使机器人具备真正的三维几何感知能力。这一设计不仅在仿真环境中取得了领先的性能,更在真实世界的各种鲁棒性测试中表现出色。

GeoVLA 的核心逻辑在于将任务进行解耦:让 VLM 负责 “看懂是什么”,让点云网络负责 “看清在哪里”。这个全新的端到端框架包含了三个关键组件的协同工作,分别是语义理解流、几何感知流和动作生成流。这种方法使得模型能够更精准地进行任务。

在一系列实验中,GeoVLA 展现出了明显的优势。在 LIBERO 基准测试中,GeoVLA 的成功率高达97.7%,超越了之前的 SOTA 模型。此外,在 ManiSkill2等更加复杂的物理仿真测试中,GeoVLA 的表现也相当出色,尤其在处理复杂物体和视角变化时,保持了较高的成功率。

更为令人瞩目的是,GeoVLA 在分布外场景中的鲁棒性,证明了其在应对各种不确定性和变化条件下的强大适应能力。这一突破将为未来的机器人应用带来新的可能性,推动智能机器人技术向更高水平迈进。

项目地址:https://linsun449.github.io/GeoVLA/

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]