https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
继今年2月推出 Qwen3.5系列后,通义实验室于今日正式发布 Qwen3.6-Plus,旨在解决开发者在智能体编程中“任务执行不稳”的核心痛点。该模型现已通过 阿里云百炼 API 开放调用。
核心升级:聚焦 Coding Agent 与长上下文
Qwen3.6-Plus 的更新重点在于将深度逻辑推理、海量记忆与精准执行有机融合。其核心优势包括:
● 编码能力飞跃:在前端页面生成、代码修复及终端自动化场景中表现卓越。作为国内同尺寸模型中首个实现智能体编程能力全面领先的版本,它能以更低的成本提供更稳定的 Agent 体验。
● 百万级上下文:默认支持 100万 字符上下文窗口,大幅提升了长文档解析与多轮对话的信息提取精度。
● 极致性价比:模型尺寸不到 K2.5或 GLM5的一半,但在工程落地能力上紧追行业标杆。
生态兼容:无缝集成主流开发工具
为了让开发者即刻上手,Qwen3.6-Plus 已实现对多家第三方编程助手的深度适配:
● OpenClaw(原 Moltbot):支持自托管的开源 AI 编码智能体,通过简单配置即可在终端获得完整的智能体编码体验。
● Qwen Code:针对 Qwen 系列深度优化的终端智能体,支持复杂代码库理解与自动化任务。
● Claude Code:Qwen API 现已兼容 Anthropic 协议,开发者可直接在 Claude Code 工作流中调用 Qwen3.6-Plus。
视觉智能体:从“看见”到“执行”
在多模态领域,Qwen3.6-Plus 实现了从视觉感知到智能体执行的闭环。模型不仅能通过视觉输入进行复杂的财务核算(如自动计算多张刮刮乐的中奖金额与利润),还能基于设计稿直接生成前端代码。这种“视觉 Agent”能力使其能够理解 GUI 界面并执行下一步操作,逐步演进为可在真实环境中持续感知的原生多模态系统。
此外,通义实验室还为 API 引入了
preserve_thinking 功能,允许保留前序轮次的思维链内容,这对于需要长程规划的复杂智能体任务尤为有益。据悉,Qwen3.6系列的更多版本(含高性能版及轻量开源版)将于近期陆续发布。via AI新闻资讯 (author: AI Base)
微信强化 “AI 魔改” 视频治理,处置违规短视频内容 3800 条
近日,微信平台发布了关于 “AI 魔改” 视频治理的公告(第六期),旨在进一步加强对不当内容的监管,以维护网络信息传播的良好秩序。这一举措是依据国家广播电视总局的部署要求,旨在遏制部分账号滥用 AI 工具对经典影视剧和动画片进行颠覆性篡改的问题。
在对平台内内容进行巡查时,发现一些账号存在违规发布不良导向的 “AI 魔改” 视频。这些视频扭曲了经典作品的原著精神,恶意解构主流共识,并对历史名人和英模故事进行歪曲,误导青少年价值观,损害了民族感情。此外,针对未成年人熟知的动画形象,部分视频也进行了恶意的邪典化和恐怖化改编。
根据国家相关法律法规以及《腾讯微信软件许可服务协议》和《微信视频号运营规范》的相关规定,平台对这些违规内容和账号采取了严格的处置措施。截至 2026 年 3 月,微信平台已累计处置违规短视频内容 3800 条,并对 1 个相关账号进行了封禁。这一治理行动表明了微信平台在保护网络环境和用户权益方面的决心和责任。
微信还呼吁所有内容创作者加强自律,携手共同维护清朗的网络生态。随着 “AI 魔改” 视频的治理工作持续推进,平台将进一步提升治理能力,确保对违规内容和账号的严厉打击,保障广大用户的良好体验。
via AI新闻资讯 (author: AI Base)
近日,微信平台发布了关于 “AI 魔改” 视频治理的公告(第六期),旨在进一步加强对不当内容的监管,以维护网络信息传播的良好秩序。这一举措是依据国家广播电视总局的部署要求,旨在遏制部分账号滥用 AI 工具对经典影视剧和动画片进行颠覆性篡改的问题。
在对平台内内容进行巡查时,发现一些账号存在违规发布不良导向的 “AI 魔改” 视频。这些视频扭曲了经典作品的原著精神,恶意解构主流共识,并对历史名人和英模故事进行歪曲,误导青少年价值观,损害了民族感情。此外,针对未成年人熟知的动画形象,部分视频也进行了恶意的邪典化和恐怖化改编。
根据国家相关法律法规以及《腾讯微信软件许可服务协议》和《微信视频号运营规范》的相关规定,平台对这些违规内容和账号采取了严格的处置措施。截至 2026 年 3 月,微信平台已累计处置违规短视频内容 3800 条,并对 1 个相关账号进行了封禁。这一治理行动表明了微信平台在保护网络环境和用户权益方面的决心和责任。
微信还呼吁所有内容创作者加强自律,携手共同维护清朗的网络生态。随着 “AI 魔改” 视频的治理工作持续推进,平台将进一步提升治理能力,确保对违规内容和账号的严厉打击,保障广大用户的良好体验。
下架内容案例:
1、AI魔改《三国演义》《水浒传》等经典影视作品,扭曲原著精神、颠覆角色设定、恶意解构主流共识;
2、AI魔改历史名人、英模故事,歪曲历史、亵渎英雄、误导青少年价值观,伤害民族感情;
3、AI魔改未成年人熟知的动画形象,恶意邪典化、恐怖化的改编内容。
via AI新闻资讯 (author: AI Base)
High error rate for completionsapi-gpt-5-nano
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Chat Completions (Degraded performance)
via OpenAI status
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Chat Completions (Degraded performance)
via OpenAI status
快手可灵AI月活突破 780 万,登顶全球移动端AI视频“新王座”
据Sensor Tower的最新数据显示,快手旗下的可灵AI在全球移动端市场表现强势。特别是在 OpenAI 宣布关闭 Sora 后,可灵AI凭借极高的用户黏性与口碑,已成为全球最受关注的视频模型。
核心数据:月活780万,断层领先 Sora
数据显示,在关键的月活跃用户(MAU)指标上,可灵AI已经实现了对 Sora 的全面压制:
数据对标:3月份,可灵AI移动端平均月活用户高达 780万,远超 Sora 的 470万。
增长态势: 仅上周,其全球周活跃用户(WAU)环比增长 4%,平均规模达 260万。
这标志着在 C 端大众市场,可灵AI已稳固占据全球第一大移动端 AI 视频创作社区的地位。
市场转折:Sora“离场”后的权力交接
此前,Sora 的关停在全球 AI 创作者群体中引发了巨大的技术真空。可灵AI凭借在运动大幅度控制、光影真实感以及移动端零门槛的操作体验,精准承接了这波流量红利。
深度解析:为什么是“可灵”?
行业分析指出,可灵AI的成功在于其深刻理解了短视频时代的创作逻辑:
极致便携: 相比 Web 端的繁琐,移动端的随时随地创作更符合大众习惯。
场景适配: 算法针对真实物理世界进行了深度建模,能够生成极具视觉张力的动态画面。
生态赋能: 背靠快手庞大的内容生态,让 AI 生成的内容有了天然的落地土壤。
行业观察:视频生成的“中国时刻”
Sensor Tower的数据虽然仅涵盖了部分移动端用户,但已足以反映出全球用户对“中国智造”大模型的认可。从技术追随到规模领跑,可灵AI的爆发不仅是一款产品的胜利,更是国产 AIGC 应用在商用化路径上的一次成功突围。
via AI新闻资讯 (author: AI Base)
据Sensor Tower的最新数据显示,快手旗下的可灵AI在全球移动端市场表现强势。特别是在 OpenAI 宣布关闭 Sora 后,可灵AI凭借极高的用户黏性与口碑,已成为全球最受关注的视频模型。
核心数据:月活780万,断层领先 Sora
数据显示,在关键的月活跃用户(MAU)指标上,可灵AI已经实现了对 Sora 的全面压制:
数据对标:3月份,可灵AI移动端平均月活用户高达 780万,远超 Sora 的 470万。
增长态势: 仅上周,其全球周活跃用户(WAU)环比增长 4%,平均规模达 260万。
这标志着在 C 端大众市场,可灵AI已稳固占据全球第一大移动端 AI 视频创作社区的地位。
市场转折:Sora“离场”后的权力交接
此前,Sora 的关停在全球 AI 创作者群体中引发了巨大的技术真空。可灵AI凭借在运动大幅度控制、光影真实感以及移动端零门槛的操作体验,精准承接了这波流量红利。
深度解析:为什么是“可灵”?
行业分析指出,可灵AI的成功在于其深刻理解了短视频时代的创作逻辑:
极致便携: 相比 Web 端的繁琐,移动端的随时随地创作更符合大众习惯。
场景适配: 算法针对真实物理世界进行了深度建模,能够生成极具视觉张力的动态画面。
生态赋能: 背靠快手庞大的内容生态,让 AI 生成的内容有了天然的落地土壤。
行业观察:视频生成的“中国时刻”
Sensor Tower的数据虽然仅涵盖了部分移动端用户,但已足以反映出全球用户对“中国智造”大模型的认可。从技术追随到规模领跑,可灵AI的爆发不仅是一款产品的胜利,更是国产 AIGC 应用在商用化路径上的一次成功突围。
via AI新闻资讯 (author: AI Base)
国产 LLM 工具链再升级!开源 LLMOps 平台 Maxkb4j v2.6.0 正式发布
据报道,基于 Java 开发的开源 LLMOps 平台 Maxkb4j 正式发布了 v2.6.0 版本。作为一款集成了 LLM 工作流与 RAG(检索增强生成)能力的深度开发平台,本次更新在技能扩展、安全鉴权及系统稳定性方面实现了显著跨越。
核心赋能:技能工具与 Webhook 鉴权双落地
Maxkb4jv2.6.0在功能层面上完成了多项“重头戏”:
技能工具支持: 新增了对 Shell 工具及系统消息集成的支持,这意味着开发者可以更灵活地调用底层系统能力,构建具备复杂执行逻辑的智能体。
安全再加固: 为了满足企业级应用的合规需求,新版本为 Webhook 触发器引入了 Token 鉴权功能,确保了外部链路调用的安全性。
架构演进: 项目紧跟前沿生态,完成了langchain4j版本的升级,进一步增强了与各类主流大模型的兼容性。
细节打磨:告别“空指针”与冗余逻辑
在追求功能扩张的同时,泰山 AI 团队对系统的“鲁棒性”进行了深度手术:
模型优化: 移除了模型服务中的缓存注解,并重构了模型提供商枚举及 HTTP 客户端初始化策略,提升了模型响应的确定性。
知识库增强: 将文本分词工具重构为更高效的 Tokenizer,并修复了问题段落索引创建中的字段映射错误。
交互修复: 解决了应用图标更新空值、登录验证码清除残留以及聊天信息初始化缓存等一系列影响用户体验的细节 Bug。
产品定位:博采众长的 Java 系 LLM 标杆
作为一款 Star 数已突破1200的热门开源项目,Maxkb4j 在研发过程中充分借鉴了 MaxKB、Dify 和 FastGPT 等行业先驱的优点。其坚持使用高性能、高稳定性的 Java 语言开发,旨在为国内开发者提供一个低门槛、易部署且符合工业级标准的 AI 应用底座。
结语:为 AI 开发者提供“稳稳的幸福”
随着 v2.6.0版本的上线,Maxkb4j 正在从一个简单的 RAG 工具演变为一个全功能的智能体编排中心。对于希望在 Java 生态下快速构建私有化 AI 知识库或复杂工作流的企业而言,这一版本无疑提供了更具安全感与扩展性的选择。
via AI新闻资讯 (author: AI Base)
据报道,基于 Java 开发的开源 LLMOps 平台 Maxkb4j 正式发布了 v2.6.0 版本。作为一款集成了 LLM 工作流与 RAG(检索增强生成)能力的深度开发平台,本次更新在技能扩展、安全鉴权及系统稳定性方面实现了显著跨越。
核心赋能:技能工具与 Webhook 鉴权双落地
Maxkb4jv2.6.0在功能层面上完成了多项“重头戏”:
技能工具支持: 新增了对 Shell 工具及系统消息集成的支持,这意味着开发者可以更灵活地调用底层系统能力,构建具备复杂执行逻辑的智能体。
安全再加固: 为了满足企业级应用的合规需求,新版本为 Webhook 触发器引入了 Token 鉴权功能,确保了外部链路调用的安全性。
架构演进: 项目紧跟前沿生态,完成了langchain4j版本的升级,进一步增强了与各类主流大模型的兼容性。
细节打磨:告别“空指针”与冗余逻辑
在追求功能扩张的同时,泰山 AI 团队对系统的“鲁棒性”进行了深度手术:
模型优化: 移除了模型服务中的缓存注解,并重构了模型提供商枚举及 HTTP 客户端初始化策略,提升了模型响应的确定性。
知识库增强: 将文本分词工具重构为更高效的 Tokenizer,并修复了问题段落索引创建中的字段映射错误。
交互修复: 解决了应用图标更新空值、登录验证码清除残留以及聊天信息初始化缓存等一系列影响用户体验的细节 Bug。
产品定位:博采众长的 Java 系 LLM 标杆
作为一款 Star 数已突破1200的热门开源项目,Maxkb4j 在研发过程中充分借鉴了 MaxKB、Dify 和 FastGPT 等行业先驱的优点。其坚持使用高性能、高稳定性的 Java 语言开发,旨在为国内开发者提供一个低门槛、易部署且符合工业级标准的 AI 应用底座。
结语:为 AI 开发者提供“稳稳的幸福”
随着 v2.6.0版本的上线,Maxkb4j 正在从一个简单的 RAG 工具演变为一个全功能的智能体编排中心。对于希望在 Java 生态下快速构建私有化 AI 知识库或复杂工作流的企业而言,这一版本无疑提供了更具安全感与扩展性的选择。
via AI新闻资讯 (author: AI Base)
4月2日,蚂蚁集团AI安全实验室与清华大学联合开源ClawAegis——这是首个覆盖OpenClaw全生命周期的安全防御插件,旨在系统性解决其面临的安全与可靠性风险,为自主智能体提供多维度、轻量化、即时干预的原生防护能力。
随着OpenClaw等开源智能体框架的快速普及,其自动化能力背后潜藏的安全风险也日益显现。从skill投毒、记忆数据污染,到意图被恶意诱导、执行高危操作乃至资源被耗尽,智能体在初始化、用户输入、模型推理、智能决策到服务执行的全生命周期均面临挑战。
针对这些风险,ClawAegis构建了覆盖上述五大阶段的全链路纵深防御体系,能够主动识别并拦截包括恶意指令注入、敏感信息窃取、用户意图篡改、权限越界调用在内的多种运行时威胁。
作为一款内置的轻量化安全插件,ClawAegis可无缝集成至OpenClaw框架,在关键执行节点动态激活防护机制。同时,它提供高度可配置的风险识别与处置策略,方便安全运营人员灵活应对不同攻击场景;对于普通用户,则提供敏感文件与Skill资产的透明化保护。
此次开源,是继蚂蚁AI安全实验室近期协助修复OpenClaw多个高危漏洞后的又一举措。未来,双方将持续迭代ClawAegis能力,与社区共同构建可信、可控、可追溯的智能体运行环境。
via AI新闻资讯 (author: AI Base)
4月2日,腾讯旗下AI协作工具WorkBuddy突发大规模登录故障,腾讯云官方随后发布声明致歉并公布补偿方案。
监测数据显示,故障始于当日上午09:10,国内部分用户遭遇页面504服务错误、无法登录及程序闪退等异常情况。针对此次服务中断,腾讯技术团队紧急介入处理,相关功能于11:45起逐步恢复。为补偿用户损失,官方承诺向所有受影响的国内用户发放1000Credits积分,并预计在两个工作日内到账。
尽管官方午后通报服务已全面恢复稳定,但社交媒体及实时评论显示,午后仍有部分用户反映官网访问困难及产品持续崩溃,显示系统稳定性仍面临长尾挑战。WorkBuddy作为腾讯协同办公生态中的重要AI组件,其服务波动直接影响了企业级用户的生产力流转。
via AI新闻资讯 (author: AI Base)
谷歌开源大模型 Gemma 4 官宣在即:参数量翻 4 倍
在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。
据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。
规格大升级:120B 新模型挑战本地运行极限
相比前代产品,Gemma 4 在参数规模上实现了跨越式增长:
● 四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。
● MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。
● 能力进化: 预测显示,Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。
战略博弈:在开源社区围堵“中国力量”
快科技分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:
● 时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。
● 本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。
行业观察:开源赛道进入“参数与效率”双拼时代
随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。
via AI新闻资讯 (author: AI Base)
在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。
据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。
规格大升级:120B 新模型挑战本地运行极限
相比前代产品,Gemma 4 在参数规模上实现了跨越式增长:
● 四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。
● MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。
● 能力进化: 预测显示,Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。
战略博弈:在开源社区围堵“中国力量”
快科技分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:
● 时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。
● 本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。
行业观察:开源赛道进入“参数与效率”双拼时代
随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。
via AI新闻资讯 (author: AI Base)
百度健康正式发布了国内首个针对医生群体开发的任务型AI产品——“有医助理”。该产品的上线标志着医疗人工智能正式告别了单纯的“资料检索”时代,开始向能够深度参与临床与科研的“执行者”角色转变。
作为全场景医生工作平台,“有医助理”实现了权威医学检索与AI执行的深度融合。它不仅能为医生提供精准的医学知识支撑,更通过先进的Claw框架,展现出自主处理复杂医疗事务的强大能力。
从信息搜索到任务执行的跨越
在核心功能上,“有医助理”拥有检索与任务两大模式。检索模式依托数千万级医学数据,支持权威循证溯源,被业内誉为“中国版OpenEvidence”;任务模式则能自主协助医生完成学术科研、论文创作以及患者随访等繁琐工作。
为了确保医疗数据的绝对安全,百度健康为其构建了五层医疗级防护体系。通过数据隔离和加密通信等技术手段,该平台在提升医生办公效率的同时,也为患者隐私和医疗机密筑起了一道坚实的防火墙。
医疗AI进入全场景服务时代
行业专家认为,“有医助理”的发布是医疗AI从辅助工具向智能助手进化的重要里程碑。它不仅缓解了医生在科研与管理上的压力,更通过精准的任务执行能力,优化了从诊室到实验室的整体工作流。
随着任务型AI在医疗场景的深入应用,未来的智慧医疗将更加注重实用价值。百度健康此次的技术突破,预示着AI将不再仅仅是冷冰冰的问答机器,而是能够真正理解医疗逻辑、辅助医生守护生命健康的数字伙伴。
via AI新闻资讯 (author: AI Base)
近日,IBM正式发布了全新的视觉语言模型Granite 4.0 3B Vision。这款模型拥有 30 亿参数,专门针对企业级复杂文档的数据提取任务进行了深度优化,旨在解决金融、法律及医疗等行业在数字化转型中面临的非结构化数据处理难题。
该模型在处理包含复杂表格、扫描件及多模态布局的文档时表现尤为出色。通过将视觉理解与语言生成紧密结合,它能够精准识别文档中的关键信息,并将其转化为可直接利用的结构化数据,极大提升了企业的办公效率。
轻量化架构实现性能与成本的双赢
相比于动辄千亿参数的大模型,Granite 4.0 3B Vision采用了轻量化架构设计。这一特性使其不仅能够在云端高效运行,也能轻松部署在边缘侧设备上,在保证响应速度的同时,显著降低了企业在硬件算力上的投入成本。
在多项针对文档智能(Document AI)的基准测试中,该模型在理解复杂指令和图表分析方面的准确率均达到了行业领先水平。这意味着企业无需昂贵的服务器集群,即可获得精准且安全的文档解析能力。
开源生态助力企业打造专属AI应用
值得关注的是,IBM继续秉持开源开放的原则,已将该模型及其开发工具通过开源社区分发。开发者可以根据自身行业的特殊需求,对模型进行微调,从而快速构建出符合特定业务场景的自动化工作流。
这一举措无疑将加速生成式AI在垂直领域的落地。随着Granite 4.0 3B Vision的广泛应用,传统的肉眼校对和手动录入模式将逐渐成为历史,企业级数据处理正迈向全面智能化的新阶段。
via AI新闻资讯 (author: AI Base)
近日,国内 AI 大模型领军企业阶跃星辰(Stepfun)正式发布了全新的 Step 3.5 Flash 系列模型。这一动作标志着国产大模型在追求超高性能的同时,正向着更极速的响应和更低的推理成本迈进。
目前,所有 Step Plan 用户已获权首批体验该系列模型。作为 Step 3.5 家族的新成员,Flash 系列在保持核心逻辑理解能力的基础上,针对移动端和高频交互场景进行了深度优化。
性能与速度双飞跃:更懂用户的毫秒级交互
Step 3.5 Flash 系列的核心优势在于其惊人的推理速度和卓越的多模态处理能力。在实测中,该模型能够实现毫秒级的文字生成与语义解析,极大缩短了人机对话的等待感,提升了整体使用流畅度。
除了速度优势,该系列模型在视觉理解和长文本分析上同样表现亮眼。无论是解析复杂的商业图表,还是处理万字长文,Flash 系列都能在极短时间内给出精准的总结与反馈,真正做到了“既快又准”。
全面开放调用:助力大模型应用规模化落地
为了让更多开发者和企业受益,阶跃星辰同步开放了 Step 3.5 Flash 的 API 接口。凭借极具竞争力的价格策略,该系列大幅降低了企业的算力成本,为智能客服、实时翻译及内容自动化创作提供了更优选择。
阶跃星辰此举意在通过高性能、轻量化的模型,推动 AI 技术在垂直领域的深层渗透。随着 Step 3.5 Flash 的正式上线,国产大模型赛道正从“参数竞赛”转向“效率与应用价值”的综合角逐,开启了大规模商业化的新阶段。
via AI新闻资讯 (author: AI Base)
系统级深度融合!中兴联手字节跳动:新一代豆包 AI 手机定档 Q2
据企查查援引腾讯科技消息,中兴通讯与字节跳动的深度合作已进入收获期。双方联合打造的新一代 豆包 AI 手机预计将于 2026 年第二季度中晚期 正式发布。这款产品被视为中兴终端业务战略转型的集大成之作,旨在将 AI 从单纯的对话工具进化为具备自主行动能力的“智能体”。
前作战绩:工程机被炒至 3.6 万元,一机难求
此次新机的备受期待,源于上一代产品的惊人表现。
● 低调上线,高调出圈: 2025 年 12 月,双方合作的努比亚 M153豆包 AI手机作为工程样机小规模投放(仅 3 万台)。
● 溢价惊人: 由于其独特的系统级 AI 体验,该机在二手市场一度被炒至 3.6 万元 天价,成为数码圈的年度理财产品。
核心逻辑:大模型与底层权限的“骨肉相连”
不同于市面上常见的“套壳”AI 应用,中兴与字节跳动的合作走的是系统级深度集成路线:
● 权限开放: 字节豆包大模型直接与中兴通讯系统底层权限融合绑定。
● 跨应用自主: AI 不再局限于问答,而是能够理解复杂指令,实现跨 App 的自主任务调度,彻底改变了用户与手机的交互范式。
战略卡位:自研平台“Co-Claw”同步亮相
在近期举行的博鳌亚洲论坛上,中兴通讯董事长进一步披露了公司的 AI 宏图:
● 自研平台: 中兴自研智能体平台 “Co-Claw” 已正式上线。
● 双线并行: 在与字节跳动深化合作的同时,中兴也将于年内推出基于自研平台的 AI 手机,构建全栈 AI 能力。
行业观察:中兴的“AI 能见度”正在回归
长期以来,中兴在终端市场的声量相对沉稳。然而,通过与字节跳动这类拥有顶级算法与流量的伙伴“强强联手”,中兴正成功利用 豆包 AI 这一高辨识度标签,迅速拉高其在 AI 手机时代的品牌能见度。
结语:AI 手机进入“智能体”时代
当手机开始具备自主思考与执行的能力,传统的操作系统逻辑正面临解构。中兴与字节跳动的这场“全栈式”实验,或许正是通往未来移动终端形态的一块关键拼图。
via AI新闻资讯 (author: AI Base)
据企查查援引腾讯科技消息,中兴通讯与字节跳动的深度合作已进入收获期。双方联合打造的新一代 豆包 AI 手机预计将于 2026 年第二季度中晚期 正式发布。这款产品被视为中兴终端业务战略转型的集大成之作,旨在将 AI 从单纯的对话工具进化为具备自主行动能力的“智能体”。
前作战绩:工程机被炒至 3.6 万元,一机难求
此次新机的备受期待,源于上一代产品的惊人表现。
● 低调上线,高调出圈: 2025 年 12 月,双方合作的努比亚 M153豆包 AI手机作为工程样机小规模投放(仅 3 万台)。
● 溢价惊人: 由于其独特的系统级 AI 体验,该机在二手市场一度被炒至 3.6 万元 天价,成为数码圈的年度理财产品。
核心逻辑:大模型与底层权限的“骨肉相连”
不同于市面上常见的“套壳”AI 应用,中兴与字节跳动的合作走的是系统级深度集成路线:
● 权限开放: 字节豆包大模型直接与中兴通讯系统底层权限融合绑定。
● 跨应用自主: AI 不再局限于问答,而是能够理解复杂指令,实现跨 App 的自主任务调度,彻底改变了用户与手机的交互范式。
战略卡位:自研平台“Co-Claw”同步亮相
在近期举行的博鳌亚洲论坛上,中兴通讯董事长进一步披露了公司的 AI 宏图:
● 自研平台: 中兴自研智能体平台 “Co-Claw” 已正式上线。
● 双线并行: 在与字节跳动深化合作的同时,中兴也将于年内推出基于自研平台的 AI 手机,构建全栈 AI 能力。
行业观察:中兴的“AI 能见度”正在回归
长期以来,中兴在终端市场的声量相对沉稳。然而,通过与字节跳动这类拥有顶级算法与流量的伙伴“强强联手”,中兴正成功利用 豆包 AI 这一高辨识度标签,迅速拉高其在 AI 手机时代的品牌能见度。
结语:AI 手机进入“智能体”时代
当手机开始具备自主思考与执行的能力,传统的操作系统逻辑正面临解构。中兴与字节跳动的这场“全栈式”实验,或许正是通往未来移动终端形态的一块关键拼图。
via AI新闻资讯 (author: AI Base)
航旅纵横上线AI预订机酒功能: 告别手动筛选 支持全自动“说”订机酒
4月2日,航旅纵横App正式上线“AI预订机酒”功能,标志着其智能助手实现从“对话式交互”向“业务级执行”的关键跨越。 该功能依托AI大模型能力,允许旅客通过自然语言输入深度需求。系统可自动完成机票与酒店的个性化搜索、多维筛选及精准推荐,并匹配最优行程方案。例如,用户仅需口述“下周一12点前到达广州”或“预订白云机场附近500元左右大床房”,智能助手即可在App内自主完成复杂的操作链路,无需用户手动勾选比对。
此次升级的核心在于航旅纵横智能助手从“能聊会说”演进为“能办会做”。在当前大模型竞相落地的背景下,垂直领域应用正从简单的信息问答转向深度的业务逻辑执行。航旅纵横通过整合民航数据与OTA(在线旅行)服务能力,将AI Agent(智能体)概念具象化为实际的订票生产力,大幅压缩了用户在移动端的决策时间与操作成本。
这种从交互到执行的迭代,预示着移动出行服务将加速进入“零操作”时代。对于行业而言,这不仅是交互界面的革新,更是对底层业务分发逻辑的重构。随着AI对闭环交易渗透率的提升,具备高频场景与专业数据的平台将在大模型应用浪潮中占据先机,推动民航数字化转型向智能化高阶阶段迈进。
via AI新闻资讯 (author: AI Base)
4月2日,航旅纵横App正式上线“AI预订机酒”功能,标志着其智能助手实现从“对话式交互”向“业务级执行”的关键跨越。 该功能依托AI大模型能力,允许旅客通过自然语言输入深度需求。系统可自动完成机票与酒店的个性化搜索、多维筛选及精准推荐,并匹配最优行程方案。例如,用户仅需口述“下周一12点前到达广州”或“预订白云机场附近500元左右大床房”,智能助手即可在App内自主完成复杂的操作链路,无需用户手动勾选比对。
此次升级的核心在于航旅纵横智能助手从“能聊会说”演进为“能办会做”。在当前大模型竞相落地的背景下,垂直领域应用正从简单的信息问答转向深度的业务逻辑执行。航旅纵横通过整合民航数据与OTA(在线旅行)服务能力,将AI Agent(智能体)概念具象化为实际的订票生产力,大幅压缩了用户在移动端的决策时间与操作成本。
这种从交互到执行的迭代,预示着移动出行服务将加速进入“零操作”时代。对于行业而言,这不仅是交互界面的革新,更是对底层业务分发逻辑的重构。随着AI对闭环交易渗透率的提升,具备高频场景与专业数据的平台将在大模型应用浪潮中占据先机,推动民航数字化转型向智能化高阶阶段迈进。
via AI新闻资讯 (author: AI Base)
微软宣布,已经完成对必应地图(Bing Maps)近年来最大规模的一次地址数据升级,历时九个月在全球范围内部署 TomTom Orbis Maps 地址数据现已正式收官。这一升级自 2025 年 6 月启动,现已在必应地图及相关定位服务中全面生效。
TomTom Orbis Maps 建立在 Overture Maps Foundation 合作伙伴制定的通用地图标准之上,融合了 Overture Maps Foundation、OpenStreetMap(OSM)、合作伙伴数据、传感器观测数据以及 TomTom 自有数据等多源信息。微软称,新数据集具备三大优势:一是覆盖范围更广,全球可用地址点显著增加;二是位置精度更高,地址点更接近真实地理位置;三是数据更新更及时,基于持续更新模型,可更快反映现实世界的变化。
在实施过程中,必应地图团队并未一次性替换全部数据,而是采取分阶段策略:先对目标区域导入并索引新的地址数据,再与现有数据集在覆盖率、查询解析成功率以及位置精度等方面进行对比评估。只有在新数据达到或超过既定质量标准后,才会正式推送到生产环境。微软首先在关键的欧洲市场上线升级,因为当地数据的密度和完整度提升最为明显,随后逐步扩展至其他区域。
虽然首层地址数据的全球部署已经完成,微软表示仍将与 TomTom 合作接入更多 Orbis 数据层,并持续优化地址质量。目前,改进后的地址数据已应用于微软的多种位置体验,包括必应地图、必应搜索以及 Copilot 内的地图相关功能。同时,Azure Maps 也将借助 Orbis 数据,在地图 API 结果的准确性与完整性方面获得提升。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Gmail 的 AI 收件箱功能如今开始向更多用户开放,不过若想体验这一功能,代价并不低。该功能今年 1 月起仅面向“受信测试者”(trusted testers)开放,如今已开始向美国用户更大范围推送。不过,用户必须订阅每月高达 249.99 美元的 Google AI Ultra 计划才能使用这一功能。
此外,AI 收件箱目前仍被标注为测试版,但考虑到 Gmail 本身曾以测试版形式存在多年,这一标签在实际使用上的影响或许有限。
从形态上看,“AI 收件箱”并不是传统意义上的邮件列表界面,而更像是一块由 Gemini 驱动的智能摘要面板。系统会基于用户收到的邮件自动生成一份“你需要处理的事项”清单,并整理出“需要跟进的话题”,帮助用户在大量邮件噪音中快速聚焦优先级较高的信息。这意味着用户需要在一定程度上信任 Gemini:相信它不会遗漏重要邮件,也不会凭空捏造任务和内容。在当前对生成式 AI 可靠性仍存疑的背景下,这种信任门槛并不算低。
目前尚不清楚 Google 是否会在日后将 AI 收件箱扩展至价格较低的 AI 订阅计划,还是会长期将其作为 Ultra 级订阅的差异化卖点。从产品策略逻辑看,外界普遍预期 Google 未来可能会向更便宜的方案开放这一功能,但截至目前公司尚未给出任何官方确认。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)