https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
别再套用旧指令!OpenAI 发布 GPT-5.5 提示词指南:越简单越好

随着人工智能技术的飞速演进,OpenAI 近期为其最新的 GPT-5.5 模型发布了全新的提示词(Prompt)官方指南。这份指南传达了一个核心信号:开发者必须摒弃过去针对旧模型编写的冗长指令,转向更加精简、以结果为导向的沟通方式。

旧指令成为性能绊脚石

OpenAI 明确警告,将旧版本的提示词堆栈直接迁移到 GPT-5.5 可能会适得其反。过去由于模型推理能力有限,开发者往往需要提供极其详尽的步骤指导,但在更聪明的 GPT-5.5 面前,这些多余的描述反而会缩小模型的搜索空间,导致回答变得生硬且机械。

官方建议开发者从零开始构建指令,仅保留目标产出、成功标准和必要约束。与其事无巨细地指挥模型“第一步做什么、第二步做什么”,不如直接告诉它“解决这个问题,成功标准是什么”,让模型利用其增强的推理效率自行寻找最优路径。

角色定义重回核心地位

有趣的是,曾经在提示词社区引发争议的“角色定义”在 GPT-5.5 时代重新获得了官方认可。OpenAI 推荐了一套包含七个部分的提示词结构,并将“角色定义”置于首位,用于设定模型的身份背景和工作职能。

此外,为了降低流式输出时的感知延迟,指南还建议加入“开场白”机制,即在执行复杂任务前先发送一两句确认信息。这种针对 GPT-5.5 深度优化的策略,不仅能提升模型的逻辑准确性,还能显著改善最终用户的使用体验。

via AI新闻资讯 (author: AI Base)
DeepSeek核心专家加盟,元戎启行全面转向大模型技术路线

在北京车展这一汽车行业盛会上,前DeepSeek多模态技术的核心研究员阮翀以元戎启行首席科学家的身份正式亮相,这一动作标志着元戎启行在自动驾驶技术布局上的重大转向。

元戎启行首席执行官周光在现场明确表示,多模态大模型在 2026 年初已经迎来了突破性的进展。他指出,相较于上一代技术,以大模型为基座的自动驾驶路线在起点上就展现出了压倒性的优势。过去业内普遍采用的“小模型”架构存在难以克服的“跷跷板效应”——即优化了某一场景的性能,往往会损害另一场景的表现,导致无法实现全场景的安全覆盖。基于此,元戎启行已决定全面押注大模型路线。

首席科学家阮翀进一步详细介绍了公司的技术转型细节。目前,元戎启行正致力于从多个分散的小模型架构向统一的基座大模型架构过渡。在这一全新的架构下,系统被细化为驾驶、分析、评论三个具备特定功能的子模型,从而实现更精准的决策与处理。

技术效率的提升同样令人瞩目。得益于架构的优化,公司目前的单次模型迭代周期已大幅缩短,从原先的 100 多小时压缩至仅需 10 余小时。这种研发速度的量级提升,将为自动驾驶技术的快速演进和安全落地提供强有力的支撑。

via AI新闻资讯 (author: AI Base)
英伟达吴新宙:自动驾驶的“ChatGPT时刻”已至,L4 级量产不再是梦

在物理AI的广阔版图里,自动驾驶被视为最先能啃下的“硬骨头”。近期,英伟达全球副总裁吴新宙在北京的一场沟通会上,分享了这家计算巨头在智能驾驶领域的宏大蓝图,不仅拆解了支撑辅助驾驶的“五层蛋糕”体系,更明确给出了L4级自动驾驶落地的具体时间表。

“五层蛋糕”构建全栈生态

英伟达已不再满足于单纯的芯片供应商角色,而是试图通过“三台计算机”(车端推理、云端训练、仿真验证)构建一个完整的服务体系。吴新宙将其形象地称为“五层蛋糕”:从底层的硬件平台Hyperion,到操作系统、开放模型Alpamayo、仿真工具链,再到最顶层的云端基础设施。

这一体系的核心在于降低车企的开发门槛。特别是在从模块化转向“端到端”架构的过程中,英伟达利用其强大的仿真能力,每天可进行200万次场景验证,极大提升了模型训练效率。目前,英伟达正积极推动各大车厂接入Hyperion平台,以期实现标准化与规模化的飞跃。

视觉派的坚持与冗余策略

在技术路线的选择上,吴新宙是一位坚定的“视觉派”。他认为视觉传感器的像素密度和上限远超激光雷达,足以支撑高阶辅助驾驶。然而,针对要求更高的L3和L4级系统,英伟达依然将激光雷达视为不可或缺的安全冗余。他透露,英伟达正与欧美供应商合作,为高阶智驾方案寻找稳定的硬件支持。

L4落地的倒计时:2028年覆盖30城

对于行业内关于“直接跳过L3进入L4”的争论,吴新宙持务实态度。他认为L3在解放人力方面具有即时价值,而L4则需要庞大的云端运营能力支持。英伟达给出的路线图显示:2025年将交付与奔驰合作的量产项目;2027年联手谷歌开启L4试点;到2028年,英伟达计划携手Uber,在洛杉矶奥运会期间提供无人驾驶服务,并目标覆盖全球20至30个城市。

物理AI的延伸:从汽车到机器人

吴新宙观察到,物理AI的热度正从汽车向机器人领域蔓延。在他看来,汽车本质上就是一个机器人,未来的智驾和智舱“大脑”将走向高度集成。虽然机器人开发的复杂度更高,但自动驾驶的工程化经验将为其提供重要的技术底层。通过英伟达的全球化平台,这些前沿技术有望在物理世界的各个角落产生生产力的指数级增长。

via AI新闻资讯 (author: AI Base)
安卓首发:荣耀 YOYO 率先接入 DeepSeek-V4 大模型

智能手机领域的 AI 军备竞赛再次升级。荣耀官方最新宣布,其智能助理 YOYO 已正式接入 DeepSeek-V4大模型,成为安卓阵营中首个整合该顶尖 AI 技术的智能体。这一动作不仅标志着双方合作的深化,也意味着移动端 AI 体验迈入了更高阶的阶段。

据悉,此次升级涵盖了性能表现、上下文理解能力以及推理效率三大核心维度。接入 DeepSeek-V4后,YOYO 智能体在处理复杂指令和长文本对话时将展现出更强的逻辑性。通过对底层算法的优化,设备的响应速度与任务处理的精准度均得到了显著提升,能够更从容地应对多样化的用户交互场景。

在具体的体验门槛方面,荣耀官方给出了明确的指引。用户需确保 YOYO 智能体的版本号在90.10.28.041及以上,同时系统环境需处于 MagicOS8.0或更高版本。满足条件的机型即可申请抢先体验,感受新一代大模型带来的交互变革。

回顾过往,这并非双方的首次“联姻”。早在2025年初,荣耀 YOYO 助理2.0就已成功接入 DeepSeek 架构,而此前发布的自研70亿参数“魔法大模型”更是为其 AI 生态奠定了坚实基础。从最初的自动化尝试到如今深度融合高性能大模型,移动端 AI 正在从简单的指令执行者向真正的“智能管家”加速演进。

via AI新闻资讯 (author: AI Base)
AI 记者或是“傀儡”?OpenAI 关联组织疑资助虚假新闻网站

一场关于新闻真实性的风暴正席卷科技界。据调查显示,一家名为 Acutus 旗下的媒体《The Wire》被曝出其核心编辑团队可能并非人类,而是一群由人工智能驱动的虚假角色。

资金线索指向政治行动委员会

调查起源于一份异常的采访请求。倡导组织成员在接到自称 Michael Chen 的记者邀约后发现,这位记者的身份信息完全无法证实,且该网站绝大多数“员工”均呈现出明显的机器人特征。

令人震惊的是,追溯这一系列虚假账号的资金来源,线索最终指向了 OpenAI 的超级政治行动委员会。这不仅引发了公众对大模型公司干预舆论的担忧,也让 AI 在政治宣传中的角色变得更加扑朔迷离。

自动化媒体引发透明度危机

这类由 AI 运营的新闻站点正以极高的频率产出内容,试图通过算法渗透公共话语空间。由于背后缺乏真实的编辑审核与伦理约束,这种模式被质疑是某种形式的“模范共和国”试验,旨在通过技术手段操控信息流。

目前,OpenAI 方面尚未对该政治行动委员会的资金去向做出详细解释。随着技术的迭代,如何识别并监管这些隐藏在 AI 记者背后的真实意图,已成为当前数字化治理面临的紧迫挑战。

via AI新闻资讯 (author: AI Base)
爆文预订:告别 Token 焦虑!浏览器本地跑 Gemma 4,手绘流程图从此全免费

在移动端运行大模型已不再是新鲜事,但让浏览器具备强悍的 AI 处理能力正成为新的技术趋势。近日,开发者通过引入 Google 最新的 TurboQuant 算法,成功将 Gemma4模型搬进了浏览器。这意味着用户无需配置复杂的 API 环境,也不必支付任何订阅费用,就能在本地环境下实现流畅的 AI 交互。

核心技术:TurboQuant 带来的记忆革命

此次技术突破的核心在于 Google 研发的 TurboQuant 算法。它主要针对大模型的“临时记忆库”——KV Cache(键值缓存)进行了深度优化。

在传统模式下,模型在处理长对话或复杂任务时,缓存数据会迅速膨胀,导致系统卡顿。而 TurboQuant 能够将这些向量数据压缩至原来的六分之一,且支持在压缩状态下直接进行检索。这种“不解压直接搜”的特性,不仅让模型能够记住更长的上下文内容,还显著提升了计算效率。

实测体验:三十秒生成专业流程图

以集成了该技术的本地化绘图工具为例,用户只需在支持 WebGPU 的 Chrome134+ 桌面浏览器中打开网页,即可调用 Gemma4E2B 模型。

在实际测试中,生成一张结构完整的 Excalidraw 流程图仅需约32.9秒。数据显示,该模型在浏览器中的生成速度约为每秒24个 token,端到端响应灵敏。最显著的优势在于,由于整个运算过程完全在用户本地设备上完成,不消耗任何在线 Token,实现了真正意义上的“创作零成本”。

门槛与展望:本地化 AI 应用的新形态

尽管实现了“流量自由”,但本地运行仍有一定的硬件门槛。用户首次使用需要下载约3.1GB 的模型文件,且对浏览器的版本有明确要求。

这种基于 WASM(WebAssembly)和 TurboQuant 的方案,为轻量级 AI 应用提供了一个极具参考价值的范本。它证明了在不依赖高昂云端算力的情况下,通过算法优化,浏览器同样可以胜任复杂的流程图绘制与长文本处理任务。对于追求隐私安全与成本控制的用户而言,这种“即开即用、本地运行”的模式或将成为未来 AI 工具的主流形态。

via AI新闻资讯 (author: AI Base)
告别扁平化:谷歌全系应用图标大变脸,渐变色设计重塑视觉审美

谷歌公司正准备为其旗下的应用生态进行一次视觉上的“大手术”。继 2025 年末初步试水后,全新的渐变色图标设计现已确认将覆盖谷歌几乎所有的核心应用程序。

设计风格转向柔和生动

这次更新的核心在于抛弃了以往过于死板的纯圆型和四色拼接设计。新图标采用了更柔和的圆角处理,色彩从浅淡的粉彩色自然过渡到饱和的谷歌标志性原色,整体视觉感受更加灵动且具有现代感。

这种设计语言的转变不仅是为了美观,更是谷歌迈向“AI 优先”时代的象征。据了解,这种充满活力且多变的渐变风格,旨在呼应 Gemini 等 AI 驱动功能在各应用中的深度集成。

效率工具图标结构重组

除了色彩的变化,办公套件的图标结构也迎来了重大调整。谷歌文档、表格和幻灯片等应用彻底告别了沿用多年的“纵向纸张”造型,转而采用更符合现代屏幕使用习惯的横向布局,使图标在视觉上更加平衡。

值得一提的是,部分图标还找回了经典设计的影子。例如,谷歌聊天(Chat)的图标从四色气泡边框回归到类似 Hangouts 时期的绿色笑脸造型,这种复古与创新的融合,有望显著提升用户在多任务切换时的识别效率。

via AI新闻资讯 (author: AI Base)
OpenAI终止Codex独立产品线并将其全面并入GPT-5.5

4月26日,OpenAI宣布正式终止其专用编程模型Codex的独立分支,并将其核心能力全面整合至最新的GPT-5.5主模型中。

据OpenAI开发者体验主管Romain Huet证实,自GPT-5.4版本起,专用编程分支已不复存在,今年2月初发布的GPT-5.3遂成为最后一款独立的Codex模型。此次调整意味着OpenAI在模型架构策略上再次回归“通用主义”,旨在通过单一强力系统覆盖包括智能编程在内的所有专业场景。

技术表现上,整合后的GPT-5.5在自主处理编程任务(Agentic Coding)及计算机资源利用率方面均有显著提升。尽管API价格上涨了约20%,但得益于算法优化,GPT-5.5在执行同类编程任务时消耗的Token数量较GPT-5.4有所减少,实现了更低资源占用下的高效产出。

回顾历史,Codex曾在2023年首度关闭后于2025年5月以基于o3架构的形式回归,如今再次并入主模型,反映出顶尖大模型在处理垂直领域任务时,正从“专用插件式”向“内生全能式”演进。这一动作预示着AI编程已不再是需要特殊维护的实验性分支,而是通用大模型智能水平的基石级指标。

via AI新闻资讯 (author: AI Base)
程序员岗位“腰斩”?美联储最新报告揭示:AI正在切断初级开发者的职场后路

一份来自美联储的最新研究报告引发了技术圈的广泛关注。数据显示,自2022年底生成式AI工具问世以来,美国程序员岗位的招聘增速几乎遭遇“腰斩”。在AI技术迈向主流应用的进程中,其对就业市场的冲击已不再停留在讨论层面,而是实实在在地体现在宏观经济数据中。

研究发现,在生成式AI发布前,编程密集型岗位的年增长率曾一度接近5%,远超整体劳动力市场。然而,这一势头在过去一年半内戛然而止,尤其在IT服务和软件外包等程序员集中的行业,岗位增长已基本陷入停滞。

“消失”的阶梯:初级程序员遭遇裁撤

报告指出,这种岗位增长的萎缩呈现出极大的不均衡性。受冲击最严重的是22至25岁的年轻从业者。自2022年底以来,该年龄段的在职程序员人数锐减了近20%。

对于刚入行的开发者来说,职场阶梯底部的“横档”似乎正在断裂。过去,初级岗位通常负责编写基础模板、调试脚本和日常维护,而这些任务如今正是大语言模型的拿手好戏。AI的介入实际上提高了软件行业的准入门槛,让那些从事机械性编码工作的职位逐渐消失。

资深人才溢价,技能中心向“架构”转移

有趣的是,尽管整体增速放缓,资深开发者的市场价值却不降反升。在计算机系统设计等领域,经验丰富的程序员薪资涨幅高达16.7%,远超全美平均水平。研究人员分析认为,AI虽然擅长处理公开代码库中的标准化知识,但在面对复杂的系统架构决策和制度逻辑时,依然无法替代人类长期积累的“默会知识”。

这种趋势表明,企业更愿意为那些能够驾驭AI工具、具备系统思考能力的资深人才支付溢价,而非招聘大量的初级支持人员。

程序员定义的重塑

报告最后强调,中短期内AI的“替代效应”已经盖过了由效率提升带来的“扩张效应”。对于教育机构和政策制定者而言,传统的科技行业晋升路径正被重写。

未来的劳动力市场对程序员的定义将发生转变:纯粹的“代码书写者”空间被压缩,而能够扮演架构师、审核者和系统思考者角色的高阶人才将成为行业重心。这并不意味着行业的衰落,而是一场向高阶技能集快速整合的剧烈转型。

via AI新闻资讯 (author: AI Base)
ComfyUI完成3000万美元融资:估值达5亿美元,用户数突破400万

4月24日,由开源项目演进的AI初创公司ComfyUI宣布完成3000万美元融资,公司估值达到5亿美元。本轮融资由Craft Ventures领投,Pace Capital、Chemistry及TruArrow跟投。作为基于节点的工作流平台,ComfyUI通过模块化框架解决了主流扩散模型在生成图像、视频及音频时缺乏精确控制的痛点,使用户能够对生成过程的每一步进行精细调节。

相较于Midjourney或ChatGPT等基于提示词(Prompt)的“老虎机式”黑盒交互,ComfyUI提供的精准协作机制已吸引超过400万用户,其应用范围涵盖视觉特效、动画、广告及工业设计等专业领域。

自2023年开源以来,ComfyUI迅速填补了生成式AI从“文本生成”向“工业级生产”跨越的技术空白。尽管底层扩散模型持续迭代,但行业对高精度、可重复工作流的需求不减反增,“ComfyUI美术师”甚至已成为创意工作室招聘中的新兴职位。

随着2024年底完成1900万美元A轮融资后再度注资,ComfyUI正进一步巩固其在AI创作者工具链中的核心地位。在人机协作深度化的趋势下,这种强调生产力工具属性的节点式工作流,正逐渐超越简单的对话交互,成为专业级AI媒体生成的标准作业范式。

via AI新闻资讯 (author: AI Base)
“AI老法师”上岗:大模型接管工厂,工业制造开启“生命化”进化

在生物发酵、建筑设计甚至污水处理的生产一线,一群特殊的“新员工”正在悄然改变传统制造业的逻辑。它们不是汗流浃背的蓝领工人,而是被称为“AI老法师”的工业时序控制大模型——ManuDrive。

近期,上海交通大学人工智能与微结构实验室(AIMS Lab)的一项科研成果转化引起了业界关注。由李金金教授创立的科技公司,正试图将AI从单纯的文字生成和图像处理,拉进充满油垢与机器轰鸣的工厂车间。与大众熟知的聊天机器人不同,这位“AI老法师”的核心能力在于生成“时序工业生产曲线”,通过闭环控制动态优化生产工艺。

这种技术变革在生物医药领域已初显成效。以川宁生物的发酵项目为例,面对动辄数百吨、代谢过程极其复杂的发酵罐,传统人工经验往往难以实现精准控温控压。科研团队深入一线调研九个月,训练出的AI模型能提前 180 小时预测发酵动态,准确度高达99.9%。在AI的实时干预下,发酵罐产量平均提升了3%至5%,生产波动则降低了一半。

除了生物制造,“AI老法师”的应用版图正迅速扩张至多个领域。在重工领域,AI工艺师将单张CAD图纸的生成时间缩短至 3 秒;在建筑设计中,AI助力的钢塔参数设计让生产效率提升了85%以上。从刀具管理、纺织制版到智慧排产,大模型正化身为精通各项技能的“全能工程师”。

为了解决AI落地的“最后一公里”难题,一种名为FDE(前沿部署工程师)的新型人才培养模式在上海应运而生。这些工程师不再久坐实验室,而是直接驻扎在工厂车间,根据实际业务流调整模型。这种“上海研发、全国赋能”的模式,不仅保障了企业的数据安全,也让AI技术能够像生命体一样,通过不断的反馈与迭代,在真实的工业场景中持续进化。

目前,这一人工智能平台已在数十家上市企业落地,累计创造经济效益达上亿元。随着“AI+制造”实施方案的推进,这种深耕工业底层的技术正成为推动制造业转型升级的关键力量,让传统工厂在数字化浪潮中焕发出新的生命力。

via AI新闻资讯 (author: AI Base)
爆火:湾区豪宅竟支持以AI巨头股权置换,卖家自称“AI配置太低”

在旧金山以北的米尔谷(Mill Valley),一处占地约13英亩的豪宅近日因其特殊的交易方式吸引了科技圈与投资圈的目光。这套房产的主人并非单纯索要现金,而是公开喊话,希望买家用人工智能独角兽公司 Anthropic 的股权来支付房款。

投资银行家的资产平衡术

这处房产的持有者是资深投资银行家斯特姆·邓肯(Storm Duncan)。为了促成这笔交易,他甚至专门在LinkedIn上为这栋住宅开设了展示页面。邓肯直言不讳地表示,这次挂牌本质上是一次“资产多元化配置”的尝试。

作为一名长期观察市场的专业人士,邓肯认为自己目前的投资组合在房地产上过于沉重,而在代表未来趋势的人工智能领域配置不足。他推测,某些年轻的 Anthropic 员工可能正面临相反的困扰——手里握着大量估值高昂但尚未变现的股权,却缺乏现金购买顶级不动产。这种“各取所需”的交换,恰好能平衡双方的资产结构。

灵活的交易条款与现状

为了降低交易门槛,邓肯提出的方案相当灵活。这属于一笔私人协议,并不要求买家立即在二级市场抛售股票,从而避开了复杂的抛售流程。更具吸引力的是,根据其发布的条款,购房者在股权交换后的一段锁定期内,仍能保留该部分股份未来增值收益的20%。

据悉,邓肯于2019年以475万美元购入此房产。虽然他本人在疫情期间已搬迁至迈阿密,但这处宅邸目前并未闲置,一位身份不详的“知名风险投资人”正租住于此。

AI热潮下的金融新常态

这桩交易并非传统的房屋买卖,更像是一场科技新贵与传统精英之间的资产置换。在AI浪潮席卷全球的背景下,未上市科技巨头的股权已成为硬通货。这种将高端房地产与前沿科技资产直接挂钩的行为,折射出市场参与者正在重新评估传统财富与新兴科技红利之间的权重。

via AI新闻资讯 (author: AI Base)
以股权换豪宅:美国硅谷湾区银行家挂牌 13 英亩庄园,点名只要 Anthropic 股份

在人工智能热潮席卷全球的背景下,一种极具时代特征的交易方式在美国硅谷悄然出现。一位名为斯托姆·邓肯(Storm Duncan)的投资银行家近期将其位于旧金山湾区的房产推向市场,其交易条件并非传统的现金,而是特定人工智能巨头 Anthropic 的股权。

资产配置的“AI 转向”

邓肯先生对此次置换有着清晰的逻辑,他将这一决定描述为一次深思熟虑的资产多元化安排。他认为自己目前在房地产领域的资产配置比例过高,而在极具潜力的 AI 领域投资则相对匮乏,因此希望通过转让固定资产来换取成长型股权。

这处位于米尔谷(Mill Valley)的房产占地约 13 英亩,自然环境优越,邓肯于 2019 年以 475 万美元购入。目前,房产内居住着一位知名的风险投资人,这也进一步凸显了该物业在科技圈核心阶层的吸引力与社交价值。

灵活置换与潜在双赢

针对潜在买家,邓肯设计了一套灵活的交易方案,并不要求对方必须直接出售手中的股票。即使在股权锁定期内,双方也可以达成协议,且购房者在未来仍能保留所交换股份中 20% 的上涨价值收益,确保了交易的吸引力。

邓肯预测,Anthropic 的年轻员工可能恰好处于资产结构失衡的状态——拥有大量潜在价值的期权却缺乏现实生活中的高端居所。这种“去房地产化、增持 AI 化”的置换尝试,不仅反映了市场对 AI 资产的狂热,也揭示了高净值人群资产重新布局的新趋势。

via AI新闻资讯 (author: AI Base)
OpenClaw发布新版本:DeepSeek V4Flash正式成为系统默认模型

近日,全球知名开源Agent框架OpenClaw发布v2026.4.24版本,宣布正式接入DeepSeek V4系列模型,并将其轻量化版本DeepSeek V4Flash设为系统默认大脑。作为拥有25万余GitHub星标的顶尖开发框架,OpenClaw此次“易主”标志着中国开源模型在全球Agent生态位中占据了核心主导权。

DeepSeek V4Pro凭借1.6万亿总参数及49B激活参数的MoE架构,稳居全球最大开源模型地位,而V4Flash则以284B总参数在保持极高推理速度的同时,实现了接近Pro版本的逻辑能力,两者均支持高达100万token的上下文窗口。

在功能演进方面,新版OpenClaw显著强化了多模态协作与长链路任务稳定性。通过集成Google Meet并支持实时语音通话,系统实现了从会议授权、实时参与到智能转写、笔记生成的全流程自动化,将AI会议助手从简单的记录工具升级为可独立调用的工作节点。

针对浏览器自动化场景,新版本引入坐标点击与多配置文件独立无头模式,有效解决了复杂网页控件识别难题,显著提升了Agent在真实办公环境中的生存力。此外,OpenClaw通过重构模型加载逻辑与SDK接口,完成了从对话产品向系统级工作流平台的关键转型。这一深层工程优化不仅修补了早期快速扩张积累的接口债务,更为未来复杂Agent应用的大规模落地奠定了坚实底座。

via AI新闻资讯 (author: AI Base)
DeepSeek API 输入缓存价格大幅降价:首发价格的1/10

国产大模型领军者 DeepSeek 近日宣布重大调价,下调全系 API 输入缓存命中价格至首发价的1/10。这一举措标志着国产 AI 成本控制进入新阶段,力求通过极致性价比吸引更多开发者与企业接入。

核心降幅直击行业痛点

本次调价覆盖 V4-Pro 及 V4-Flash 全系列,其中 V4-Pro 缓存输入价格降至0.1元/百万 Tokens,叠加限时优惠后实付仅需0.025元。对比海外竞品,其缓存输入价格仅为 GPT-5.5Pro 的1/700,展现出极强的市场竞争力。

除了缓存命中场景,未命中场景及输出价格也同步下调至原价的1/4。这种定价策略精准瞄准了 RAG 知识库、智能客服及文档分析等高频调用场景,最高可为企业降低90% 以上的运营成本。

DeepSeek 能够实现大幅降价,得益于其自研的稀疏注意力架构。该技术支持160k 超长上下文处理,在提升长文本处理效率的同时,有效降低了底层的算力消耗与存储成本。

目前,DeepSeek 已深度适配华为云、阿里云等八大主流云平台。业内普遍认为,此举将重塑大模型行业定价体系,倒逼海外模型调整策略,加速 AI 应用从实验室走向大规模商业普惠。

via AI新闻资讯 (author: AI Base)
小米开源VLA大模型后训练全流程,机器人亚毫米级操作成现实

小米在机器人技术领域再次抛出“重磅炸弹”。继今年2月发布并开源其VLA大模型Xiaomi-Robotics-0后,小米于今日正式公布了该模型的真机后训练(Post-training)全流程。这一举措旨在解决机器人从实验室走向实际生产的“最后一公里”问题,让AI机器人真正成为开箱即用的生产力工具。

在最新展示的能力演示中,搭载该模型的机器人展现出了令人惊叹的精细操作能力。通过仅20小时的任务数据强化训练,Xiaomi-Robotics-0便成功掌握了“连续收纳耳机”这一极具挑战性的动作。画面中,机器人动作丝滑,能够精准地将细小的耳机逐一放入紧凑的收纳盒槽位中。

这项看似简单的动作实则暗藏技术玄机。官方技术资料显示,该任务面临两大核心技术壁垒:首先是精度挑战,耳机与充电盒槽位之间的公差极其细微,要求模型具备亚毫米级的空间感知能力才能实现精准对位;其次是稳定性挑战,由于耳机与盒体表面极其光滑(粗糙度低至Ra0.03μm),在触碰过程中极易滑动移位,模型必须具备极高的实时反馈与动作修正能力,以防止装配失败。

值得关注的是,Xiaomi-Robotics-0在发布首月便跻身HuggingFace全球VLA模型下载榜前六,显示出极高的行业关注度。为了进一步推动开发者生态建设,小米目前已将该项目的技术报告、模型权重以及源代码全部公开。

目前,开发者可以通过小米机器人技术官网及GitHub等开源平台获取相关资源。随着后训练全流程的开源,行业普遍预期这将大幅降低高性能机器人任务的开发门槛,加速智能机器人在复杂精细场景下的应用落地。

技术官网:https://robotics.xiaomi.com/xiaomi-robotics-0.html#pack-earbuds

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]