https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
千问上线打车skill,可告诉AI“我要空气清新的车”

3月23日,千问上线打车能力,可一句话完成选车型、添加途经点、预约时间等操作,还支持“要空气清新的车,价格不超过30元”、“驾驶平稳”、“服务态度好”等个性化需求。

即便是复杂需求,用户只需直接表达,千问都能理解意图并完成车辆匹配。例如,“我们一家人想去什刹海看夕阳,打车去,6个人”,系统可自动判断人数并匹配商务车;而对于“去医院、车上有病人、要开得稳的老司机”,千问则会优先推荐驾驶平稳的车,还可以给司机捎句话,请“提前开窗通风”。行程结束后,用户直接通过“支付宝AI付”即可完成支付。

在途经点选择上,用户可以通过自然语言灵活调整。行程开始前,说“帮我打车到西湖乌龟潭,顺路先去西溪湿地北门送个朋友”,千问可自动添加途经点。同时也支持在行程开始后,一句话添加途经点。

打车能力也可与其他生态服务结合。此前,千问已上线点外卖、订机酒、出行导航等能力,打车上线后,用户即可通过连续指令完成多步骤安排,实现跨服务的串联执行。如“帮我订机场附近的酒店”后,可以继续说“帮我打车去这个酒店”,再让千问“帮我推荐酒店附近的本地特色菜”。

千问还让“打车”具备了记忆与预约能力。用户只需告诉千问家庭和公司地址,即可直接让千问“帮我打车回家”或“打车去公司”;说一句“下午6点半下班,帮我约车回家”,系统即可自动理解时间并完成预约。随着这些能力的逐步加强,千问将为用户带来更符合个人偏好的出行服务。

打车能力的接入,是千问“AI办事”向复杂生活场景延伸的重要一步。自去年11月上线以来,千问的AI办事能力被越来越多人使用。今年春节期间,有1.3亿用户在千问首次体验AI购物,其中超400万人为60岁以上人群。

via AI新闻资讯 (author: AI Base)
大厂不再需要 AI Lab?腾讯重组研发体系:混元 3.0 预计4 月发布

在通用大模型加速落地的下半场,互联网巨头的研发组织架构正迎来一场前所未有的“去实验室化”变革。

3月20日,腾讯内部的一则调整通知引发了行业震动:成立近十年的 腾讯 AI Lab 正式被撤销,其研究能力将被整体并入大模型体系。这一变动意味着,曾经作为集团级基础研究机构的 AI Lab,将告别“独立探索”时代,全面服务于混元大模型的迭代与应用。

研发路径聚焦:混元团队成为唯一中枢

根据最新的组织架构调整,原 AI Lab 的部分核心人员已并入大语言模型部,向腾讯首席 AI 科学家 姚顺雨 汇报。作为普林斯顿博士及前 OpenAI 研究员,姚顺雨目前同时统领 AI Infra(基础设施)与大语言模型负责人,成为了腾讯 AI 战略的组织中枢。

这一调整解决了腾讯内部长期存在的研发分散问题。此前,腾讯的 AI 能力分布在不同事业群,导致协同成本较高。通过此次归拢,腾讯将实现研究、工程与产品反馈的超短链路闭环。

混元3.0稳了?4月将开启全量公测

组织重组的直接成果指向了即将发布的 混元3.0。在最近的业绩发布会上,腾讯高层透露,混元3.0目前正在内部业务测试中,预计将于 4月份 正式对外推出。新版本将在推理能力和 Agent(智能体)构建上实现显著突破。

大厂共识:弱化实验室,强化大平台

腾讯的动作并非孤例,国内主流互联网公司均在进行相似的结构重塑:

字节跳动: 原有 AI Lab 体系已整合进 Seed 团队,追求类似 OpenAI 的高频迭代模式。

阿里巴巴: 通义体系近期被纳入 Token 事业群,强调模型规模与业务增长的直接联动。

这种趋势反映了大模型时代的硬逻辑:模型训练已成为一项庞大的系统工程,单一方向的研究突破已难以独立转化为竞争优势。只有将算力、数据、工程与真实的产品反馈深度耦合,才能在日新月异的 AI 竞赛中守住身位。

对于腾讯而言,撤销 AI Lab 并非放弃基础研究,而是将“实验室里的火种”直接投入到大模型的“工业引擎”中。随着2026年腾讯对 AI 投资计划翻倍,这场由姚顺雨挂帅、全员压上混元主线的战役,正进入最关键的交付期。

via AI新闻资讯 (author: AI Base)
律师费也“打折”:Anthropic 15 亿美元版权和解案迎来新进展

在 AI 行业最具标杆意义的版权纠纷案中,关于“分蛋糕”的争论再次引发关注。据最新法庭文件显示,针对人工智能巨头 Anthropic 此前达成的 15 亿美元版权和解案,原告律师团已主动将其申请的律师费用从 3 亿美元大幅下调至 1.875 亿美元。

这一动作并非律所“慷慨解囊”,而是迫于法院和被告方的双重压力。此前,Anthropic 公司以及负责审理此案的法官均对高达 3 亿美元的“天价”律师费表示反对,认为该数额严重溢价,且涉及不合理的费用分摊计划。

15 亿美元和解背后:AI 训练的代价

作为 Claude 系列模型的开发者,Anthropic 于去年 8 月同意支付 15 亿美元,以了结有关其使用数十万本盗版图书训练 AI 模型的指控。这不仅是目前规模最大的版权集体诉讼和解案,更确立了一个行业先例:Anthropic 承诺销毁相关盗版数据集,并保证未来的商用模型不再使用此类素材。

根据协议,每部受版权保护作品的持有者将获得超过 3000 美元的赔偿。这种高额的赔付标准,被视为传统内容创作界对 AI “无偿投喂”模式的一次重大胜利。

律师费争议:谁在代表“集体利益”?

本次费用的下调主要集中在律师团的内部结构上。原本的 3 亿美元申请中,包含了分给另外三家并未被正式指定为集体诉讼代表律所的 7500 万美元。法官明确指出,主导律所不能私自“指定他人”共同承担责任并分钱。在新提交的文件中,代理律师表示接受法院建议,目前的 1.875 亿美元申请(约占和解基金的 12.5%)将仅基于官方指定的代理律师工作量。

四月听证会:和解将进入终章

旧金山联邦地区法院已定于 4 月 23 日举行听证会,届时将决定是否最终批准这一修正后的和解协议。随着律师费这一核心阻碍的化解,这桩困扰 AI 界许久的版权大案有望正式落下帷幕。

对于整个 AI 产业而言,这笔巨额和解金不仅是为过去的行为买单,更像是一张通往“合规时代”的入场券。随着法律边界的清晰,未来 AI 模型与版权方之间的合作模式将从“先使用后打官司”逐步转向“先授权后训练”的正轨。

via AI新闻资讯 (author: AI Base)
马斯克披露Terafab芯片工厂计划,拟为特斯拉与SpaceX提供自研算力

埃隆·马斯克近日在德克萨斯州奥斯汀举行的一场活动中,正式披露了旗下SpaceX与特斯拉在半导体制造领域的深度合作蓝图。据彭博社报道,马斯克计划在特斯拉奥斯汀总部及“超级工厂”附近兴建一座名为“Terafab”的专用芯片制造中心。此举旨在通过垂直整合供应链,彻底解决现有半导体产能无法满足其在人工智能与机器人技术领域爆发式需求的核心矛盾。

马斯克在活动现场直言,目前半导体厂商的生产速度已成为其技术演进的瓶颈,“要么建造Terafab,要么就面临芯片短缺”,因此自主制造已成必然选择。根据披露的技术愿景,Terafab的目标是生产能够支持每年地球端100至200吉瓦、以及太空端1太瓦计算能力的超高性能芯片。这一宏大目标不仅涵盖了特斯拉FSD及Optimus机器人的本地算力需求,更预示了SpaceX在星际通信与深空计算领域的战略布局。

尽管该计划展示了马斯克跨行业整合的雄心,但其并未给出明确的建设时间表。考虑到马斯克缺乏半导体制造的专业背景,且此前存在多次过度承诺交付周期的记录,行业分析人士对Terafab的落地效率仍持谨慎态度。然而,若该项目成功实施,将标志着马斯克生态系统从应用层、模型层进一步下沉至底层的物理算力层,在全球AI底层硬件竞争中占据关键身位。

via AI新闻资讯 (author: AI Base)
Cursor发布Composer2模型,承认底层基于Moonshot AI开源底座Kimi

本周,拥有高估值的美国AI编程初创公司Cursor正式推出新一代模型Composer2,官方宣称其具备“前沿级编码智能”。然而,该模型发布后不久即陷入舆论风暴。社交平台X用户Fynn通过代码取证指出,Composer2的底层疑似为Moonshot AI(月之暗面)近期发布的开源模型Kimi k2.5,并质疑Cursor在未重命名模型ID的情况下直接加装了强化学习功能。

针对质疑,Cursor开发者教育副总裁Lee Robinson迅速作出回应,承认Composer2确实基于开源项目开发,但他强调最终模型的计算量仅有约四分之一来自开源底座,其余部分均源自Cursor的自主训练,这使得Composer2在基准测试中的表现与原生Kimi模型存在显著差异。随后,Moonshot AI官方证实了这一商业授权合作,并表示其Kimi-k2.5模型通过Cursor的持续预训练与高算力强化学习得到了有效整合,符合开放模型生态的许可条款。

尽管Cursor联合创始人Aman Sanger最终承认未在首发公告中提及Kimi底座属于“疏忽”,但这起事件再次引发了硅谷对“技术纯洁性”与全球供应链协同的讨论。在全球AI军备竞赛升温的背景下,顶尖美国初创公司选择中国高性能开源底座进行二次开发,既体现了开源生态跨国流动的技术逻辑,也凸显了科技公司在品牌叙事与供应链透明度之间的微妙平衡。

via AI新闻资讯 (author: AI Base)
价格仅为海外模型十分之一!MiniMax M2.5 连夺五周全球调用量冠军

国产大模型正凭借极致的性价比,在全球算力市场上演一场“降维打击”。

据最新报道,国产大模型 MiniMax M2.5 已连续五周稳居全球大模型调用量榜首。这一成绩不仅刷新了国产模型在国际舞台上的活跃纪录,更揭示了中国 AI 产业在全球竞争中的核心杀手锏:在同等能力水平下,国产模型的价格与海外竞品相比竟有十几倍的巨大差距。

这种让对手汗颜的性价比优势,主要源于两大战略护城河:

底层架构创新:让 Token 更“值钱”

MiniMax 研发人员指出,通过底层架构的根本性创新,模型推理成本得到了大幅压降。简单来说,由于算法效率的提升,模型能够用更少的 Token 消耗完成同样的复杂任务,从技术层面直接稀释了用户的算力成本。

能源与基建红利:筑起算力防线

除了技术端的优化,中国在算力基础设施上的能源优势同样不可忽视。业内数据显示,电费在算力成本中的占比高达 70% 至 80%。对于拥有百万张显卡并行运算规模的 AI 集群而言,中国稳定的能源供应和相对低廉的工业电价,为 AI 产业提供了一道极具竞争力的“成本防火墙”。

从“算力消耗”到“智力产出”,以 MiniMax 为代表的国产大模型正通过技术迭代与成本控制的双重挤压,快速收割全球市场份额。当 AI 竞争进入下半场,这种“高智商、低价格”的模式,或许将彻底改写全球大模型商业化的游戏规则。

via AI新闻资讯 (author: AI Base)
超越美国!中国 AI 调用量领跑全球:算力产业链开启“全链通胀”模式

中国大模型正在以惊人的速度重塑全球 AI 的消费版图。

根据全球最大 AI 模型 API 聚合平台 OpenRouter 最新发布的数据显示,截至 3 月 15 日,中国 AI 大模型的周调用量达到了惊人的 4.69 万亿 Token。这不仅是国产大模型连续第二周在调用量上超越美国,更实现了全球前三名被中国模型包揽的壮举。

Token 消耗爆炸:从问答到 Agent 的质变

这种指数级的增长,核心动力源于 OpenClaw 等 AI Agent(智能体)应用的爆发。与传统的单次问答不同,Agent 具备自主执行任务的链式反应特性:

● 消耗强度: 传统对话可能仅消耗数千 Token,而一个复杂的 Agent 任务链动辄达到数十万甚至百万级别。
● 增长预测: 摩根大通预测,中国 AI 推理 Token 的消耗量将从 2025 年的 10 千万亿,飙升至 2030 年的 3900 千万亿,五年间增长约 370 倍。

算力产业链:进入“全链通胀”周期

随着调用量的狂飙,国产算力全链条正迎来景气度的高速外溢。国金证券 预判,2026 年算力产业链将进入“全链通胀”周期,行业热度将从核心芯片端,全面蔓延至 AIDC、云服务、配套电力设备及服务器等各个环节。

云厂商的商业逻辑也随之发生剧变:从单纯的“算力租赁商”转变为 “Agent 数字员工的工位提供商”。通过一键部署和价格补贴,巨头们正试图在应用入口阶段就掌控下一代 AI 的分发权。

领跑企业:国产算力的安全与出海

在这一波算力红利中,头部企业已率先完成布局:

● 青云科技: 旗下的 AI 算力云服务“基石智算”已完成 Clawdbot 应用升级,通过专属密钥体系构建起安全屏障,解决了企业级应用最核心的安全痛点。
● 优刻得: 作为行业内首家实现云端部署 Openclaw 镜像的厂商,已在美国、新加坡、日本等多个海外节点上线服务,开启了国产 AI 算力的全球化收割模式。

当中国模型在调用量上完成对美国的“反超”,国产算力产业链正迎来量价齐升的金算时代。在这场 Token 驱动的竞赛中,谁能提供更稳、更安全、更具性价比的“数字工位”,谁就将握住未来五年 AI 商业化的命门。

via AI新闻资讯 (author: AI Base)