https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📱 微软发布 3 款自研 AI 模型,覆盖转写、语音和图像生成
微软 4 月 2 日发布 3 款完全自研的基础 AI 模型,分别是语音转写模型 MAI-Transcribe-1、语音生成模型 MAI-Voice-1 和图像生成模型 MAI-Image-2,已通过 Microsoft Foundry 和新的 MAI Playground 上线。三款模型分别覆盖语音转文本、文本转语音和图像生成,面向企业 AI 中最具商业价值的几类应用。
在独家采访中,微软称 MAI-Transcribe-1 在 FLEURS 多语言基准测试覆盖的 25 种主要语言上平均词错误率为 3.8 %,并在这 25 种语言上全面领先 OpenAI 的 Whisper-large-v3;MAI-Voice-1 可在 1 秒内生成 60 秒语音,并支持用数秒音频定制声音;MAI-Image-2 在 Foundry 和 Copilot 中的生成速度较前代至少提升 2 倍,已开始向 Bing 和 PowerPoint 推出。
VentureBeat | MAI Playground
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
微软 4 月 2 日发布 3 款完全自研的基础 AI 模型,分别是语音转写模型 MAI-Transcribe-1、语音生成模型 MAI-Voice-1 和图像生成模型 MAI-Image-2,已通过 Microsoft Foundry 和新的 MAI Playground 上线。三款模型分别覆盖语音转文本、文本转语音和图像生成,面向企业 AI 中最具商业价值的几类应用。
在独家采访中,微软称 MAI-Transcribe-1 在 FLEURS 多语言基准测试覆盖的 25 种主要语言上平均词错误率为 3.8 %,并在这 25 种语言上全面领先 OpenAI 的 Whisper-large-v3;MAI-Voice-1 可在 1 秒内生成 60 秒语音,并支持用数秒音频定制声音;MAI-Image-2 在 Foundry 和 Copilot 中的生成速度较前代至少提升 2 倍,已开始向 Bing 和 PowerPoint 推出。
VentureBeat | MAI Playground
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
千问 3.6 正式发布:100 万长上下文,硬刚 Claude Code
4月2日,阿里官方正式发布了新一代大语言模型 Qwen3.6-Plus。这款被誉为“当下最强编程国产模型”的新作,不仅在整体性能上较3.5版本有质的飞跃,更在多个维度上无限接近全球公认的编程标杆 —— Claude 系列。
核心战力:国产第一,直逼 Claude
在系列编程能力权威评测中,Qwen3.6-Plus 脱颖而出,稳居国产模型首位。
任务自主化: 在前端网页开发、仓库级复杂任务中,它能像资深工程师一样自主拆解任务、规划路径并完成“测试-修改”的闭环。
工程落地: 该模型在长程规划任务中取得了最优成绩,不仅擅长高质量代码修复,还能熟练处理复杂的终端操作与自动化任务执行。
视觉进化:从“看懂设计稿”到“一键生成网页”
得益于原生多模态数据训练,Qwen3.6-Plus 开启了视觉智能体编程的全新可能:
链路打通: 模型可以直接基于界面截图、设计稿或自然语言描述,完成前端页面生成、代码补全及交互修改。
感知敏锐: 实现了从“看懂界面”到“调用工具完成修改”的完整闭环,极大地缩短了 UI 还原的开发周期。
生态兼容:百万级上下文,全面适配 Agent 框架
为了释放智能体的最大潜力,千问3.6在基础规格上也进行了大幅强化:
超长视野: 支持高达 100万词元(Token)的上下文窗口,能够轻松吞下整个代码库。
框架全兼容: 集中优化了对 Claude Code、OpenClaw、Qwen Code 及 Cline 等主流 Agent 框架的支持。
行业观察:让“氛围编程”真正落地
Qwen3.6-Plus 的发布,标志着编程门槛的进一步瓦解。它不仅能处理专业的跨域长程规划,更让“一句话驱动 AI 写代码”的“氛围编程”(Vibe Coding)变得真正可用且稳健。
目前,Qwen3.6-Plus 已正式登陆 千问 App 及悟空平台。国产大模型在编程领域的这一记重拳,无疑为全球 AI 开发者社区注入了新的活力。
via AI新闻资讯 (author: AI Base)
4月2日,阿里官方正式发布了新一代大语言模型 Qwen3.6-Plus。这款被誉为“当下最强编程国产模型”的新作,不仅在整体性能上较3.5版本有质的飞跃,更在多个维度上无限接近全球公认的编程标杆 —— Claude 系列。
核心战力:国产第一,直逼 Claude
在系列编程能力权威评测中,Qwen3.6-Plus 脱颖而出,稳居国产模型首位。
任务自主化: 在前端网页开发、仓库级复杂任务中,它能像资深工程师一样自主拆解任务、规划路径并完成“测试-修改”的闭环。
工程落地: 该模型在长程规划任务中取得了最优成绩,不仅擅长高质量代码修复,还能熟练处理复杂的终端操作与自动化任务执行。
视觉进化:从“看懂设计稿”到“一键生成网页”
得益于原生多模态数据训练,Qwen3.6-Plus 开启了视觉智能体编程的全新可能:
链路打通: 模型可以直接基于界面截图、设计稿或自然语言描述,完成前端页面生成、代码补全及交互修改。
感知敏锐: 实现了从“看懂界面”到“调用工具完成修改”的完整闭环,极大地缩短了 UI 还原的开发周期。
生态兼容:百万级上下文,全面适配 Agent 框架
为了释放智能体的最大潜力,千问3.6在基础规格上也进行了大幅强化:
超长视野: 支持高达 100万词元(Token)的上下文窗口,能够轻松吞下整个代码库。
框架全兼容: 集中优化了对 Claude Code、OpenClaw、Qwen Code 及 Cline 等主流 Agent 框架的支持。
行业观察:让“氛围编程”真正落地
Qwen3.6-Plus 的发布,标志着编程门槛的进一步瓦解。它不仅能处理专业的跨域长程规划,更让“一句话驱动 AI 写代码”的“氛围编程”(Vibe Coding)变得真正可用且稳健。
目前,Qwen3.6-Plus 已正式登陆 千问 App 及悟空平台。国产大模型在编程领域的这一记重拳,无疑为全球 AI 开发者社区注入了新的活力。
via AI新闻资讯 (author: AI Base)
德国民众担忧 AI 深度伪造风险超九成
根据德国民调机构迪麦颇公司最新发布的调查结果,超过 90% 的德国成年人对人工智能(AI)被用于深度伪造感到忧虑。此次调查由德国电视一台委托进行,时间为 3 月 30 日至 31 日,共涉及 1316 名受访者。调查结果显示,有 53% 的受访者认为 AI 生成深度伪造内容的风险 “非常高”,而 38% 的人则认为风险 “高”。
受访者对 AI 的担忧主要集中在几个方面,包括难以辨别 AI 生成的假新闻以及工作岗位被 AI 取代的问题。在对未来五年的展望中,38% 的受访者认为 AI 将改善他们的生活,而 45% 的人则持相反观点,认为 AI 会使生活变糟。特别是在 18 岁至 34 岁的年轻群体中,有 51% 的人认为 AI 有可能改善生活。
深度伪造是指利用人工智能技术对视频、图片或音频进行合成和篡改,以制造出极具真实感的虚假内容。近年来,随着大模型技术的快速发展,利用 AI 进行换脸、换声以及生成深度伪造内容的案例频频出现,给社会带来了诸多挑战。当前,许多国家在人工智能监管法规方面仍存在不足。
早些时候,有调查显示,在美国、英国、加拿大、法国、德国和西班牙的消费者中,四分之一的美国人过去 12 个月内接到过深度伪造的语音电话。另有 24% 的人表示,难以可靠区分电话中的 AI 语音和真人声音。平均每周,六个市场的消费者会接到 7.4 通骚扰电话,其中法国的骚扰电话数量最多,而英国的受害者面临的经济损失最为严重。
随着技术的进步,诈骗分子模仿他人声音的成本和难度显著降低,这使得深度伪造的诈骗行为愈发猖獗。受害者一旦信以为真,可能会遭遇金融诈骗或身份盗窃。
via AI新闻资讯 (author: AI Base)
根据德国民调机构迪麦颇公司最新发布的调查结果,超过 90% 的德国成年人对人工智能(AI)被用于深度伪造感到忧虑。此次调查由德国电视一台委托进行,时间为 3 月 30 日至 31 日,共涉及 1316 名受访者。调查结果显示,有 53% 的受访者认为 AI 生成深度伪造内容的风险 “非常高”,而 38% 的人则认为风险 “高”。
受访者对 AI 的担忧主要集中在几个方面,包括难以辨别 AI 生成的假新闻以及工作岗位被 AI 取代的问题。在对未来五年的展望中,38% 的受访者认为 AI 将改善他们的生活,而 45% 的人则持相反观点,认为 AI 会使生活变糟。特别是在 18 岁至 34 岁的年轻群体中,有 51% 的人认为 AI 有可能改善生活。
深度伪造是指利用人工智能技术对视频、图片或音频进行合成和篡改,以制造出极具真实感的虚假内容。近年来,随着大模型技术的快速发展,利用 AI 进行换脸、换声以及生成深度伪造内容的案例频频出现,给社会带来了诸多挑战。当前,许多国家在人工智能监管法规方面仍存在不足。
早些时候,有调查显示,在美国、英国、加拿大、法国、德国和西班牙的消费者中,四分之一的美国人过去 12 个月内接到过深度伪造的语音电话。另有 24% 的人表示,难以可靠区分电话中的 AI 语音和真人声音。平均每周,六个市场的消费者会接到 7.4 通骚扰电话,其中法国的骚扰电话数量最多,而英国的受害者面临的经济损失最为严重。
随着技术的进步,诈骗分子模仿他人声音的成本和难度显著降低,这使得深度伪造的诈骗行为愈发猖獗。受害者一旦信以为真,可能会遭遇金融诈骗或身份盗窃。
划重点:
🔍 逾 90% 的德国人对 AI 用于深度伪造表示担忧,53% 认为风险 “非常高”。
💼 45% 的人认为 AI 会使生活变糟,38% 则看好 AI 未来的积极影响。
📞 四分之一的美国人接到过深度伪造语音电话,诈骗成本大幅降低。
via AI新闻资讯 (author: AI Base)
智谱发布 GLM-5V-Turbo:给 AI 智能体安上“火眼金睛”
4月2日,智谱正式发布了专为视觉编程打造的多模态 Coding 基座模型 —— GLM-5V-Turbo。这款模型不仅能写代码,更拥有了“看懂”世界的能力,旨在将 AI Agent 的感知链路从枯燥的字符延伸到丰富的设计稿与网页界面中。
核心突破:看得懂画面,写得出代码
作为原生多模态 Coding 基座,GLM-5V-Turbo 实现了视觉与编程能力的深度融合:
原生多模态感知: 能够深度理解图片、视频、设计稿及复杂的文档版面,支持画框、截图、读网页等多种视觉工具调用。
超长视野: 上下文窗口大幅扩展至 200k,让 Agent 能够轻松处理庞大的工程项目或长篇技术文档。
性能跨越: 在多模态 Coding、GUI Agent(图形用户界面智能体)等核心基准测试中,该模型以更小的尺寸取得了领先表现,且确保了纯文本场景下的逻辑推理能力不退化。
典型场景:从“草图”到“成品”的秒级跨越
GLM-5V-Turbo 的加入,让开发者可以体验到前所未有的工作流:
前端复刻: 只需发送一张草图、设计稿截图或一段操作录屏,模型即可理解布局、配色与交互逻辑,生成完整可运行的前端工程,精准还原视觉细节。
GUI 自主探索: 结合 Claude Code 等框架,它能像真人一样自主浏览网页、梳理跳转关系并采集素材,实现从“看图复刻”到“主动探索复刻”的能力跃升。
交互式编辑: 支持通过对话直接增删模块、修改文案或调整布局,实现可视化的代码迭代。
赋能“龙虾”:AutoClaw 迎来视觉进化
在智谱自研的智能体 AutoClaw(龙虾) 中接入该模型后,原本只能处理文字任务的“龙虾”具备了真正的视觉能力。
深度解读图表: 龙虾现在能直接看懂 K 线走势图、估值区间图及券商研报图表。
高效产出: 支持四路数据源在60秒内并行采集,自动生成图文并茂的专业分析报告或 PPT。
行业观察:编程不再是“盲人摸象”
随着 GLM-5V-Turbo 的发布,智谱 成功将 AI 的理解力从单纯的语法逻辑推向了感知逻辑。当 AI 能够“看见”屏幕并理解人类的操作环境时,真正的全自动编程辅助(Agentic Coding)才算真正拉开了序幕。
via AI新闻资讯 (author: AI Base)
4月2日,智谱正式发布了专为视觉编程打造的多模态 Coding 基座模型 —— GLM-5V-Turbo。这款模型不仅能写代码,更拥有了“看懂”世界的能力,旨在将 AI Agent 的感知链路从枯燥的字符延伸到丰富的设计稿与网页界面中。
核心突破:看得懂画面,写得出代码
作为原生多模态 Coding 基座,GLM-5V-Turbo 实现了视觉与编程能力的深度融合:
原生多模态感知: 能够深度理解图片、视频、设计稿及复杂的文档版面,支持画框、截图、读网页等多种视觉工具调用。
超长视野: 上下文窗口大幅扩展至 200k,让 Agent 能够轻松处理庞大的工程项目或长篇技术文档。
性能跨越: 在多模态 Coding、GUI Agent(图形用户界面智能体)等核心基准测试中,该模型以更小的尺寸取得了领先表现,且确保了纯文本场景下的逻辑推理能力不退化。
典型场景:从“草图”到“成品”的秒级跨越
GLM-5V-Turbo 的加入,让开发者可以体验到前所未有的工作流:
前端复刻: 只需发送一张草图、设计稿截图或一段操作录屏,模型即可理解布局、配色与交互逻辑,生成完整可运行的前端工程,精准还原视觉细节。
GUI 自主探索: 结合 Claude Code 等框架,它能像真人一样自主浏览网页、梳理跳转关系并采集素材,实现从“看图复刻”到“主动探索复刻”的能力跃升。
交互式编辑: 支持通过对话直接增删模块、修改文案或调整布局,实现可视化的代码迭代。
赋能“龙虾”:AutoClaw 迎来视觉进化
在智谱自研的智能体 AutoClaw(龙虾) 中接入该模型后,原本只能处理文字任务的“龙虾”具备了真正的视觉能力。
深度解读图表: 龙虾现在能直接看懂 K 线走势图、估值区间图及券商研报图表。
高效产出: 支持四路数据源在60秒内并行采集,自动生成图文并茂的专业分析报告或 PPT。
行业观察:编程不再是“盲人摸象”
随着 GLM-5V-Turbo 的发布,智谱 成功将 AI 的理解力从单纯的语法逻辑推向了感知逻辑。当 AI 能够“看见”屏幕并理解人类的操作环境时,真正的全自动编程辅助(Agentic Coding)才算真正拉开了序幕。
via AI新闻资讯 (author: AI Base)
继今年2月推出 Qwen3.5系列后,通义实验室于今日正式发布 Qwen3.6-Plus,旨在解决开发者在智能体编程中“任务执行不稳”的核心痛点。该模型现已通过 阿里云百炼 API 开放调用。
核心升级:聚焦 Coding Agent 与长上下文
Qwen3.6-Plus 的更新重点在于将深度逻辑推理、海量记忆与精准执行有机融合。其核心优势包括:
● 编码能力飞跃:在前端页面生成、代码修复及终端自动化场景中表现卓越。作为国内同尺寸模型中首个实现智能体编程能力全面领先的版本,它能以更低的成本提供更稳定的 Agent 体验。
● 百万级上下文:默认支持 100万 字符上下文窗口,大幅提升了长文档解析与多轮对话的信息提取精度。
● 极致性价比:模型尺寸不到 K2.5或 GLM5的一半,但在工程落地能力上紧追行业标杆。
生态兼容:无缝集成主流开发工具
为了让开发者即刻上手,Qwen3.6-Plus 已实现对多家第三方编程助手的深度适配:
● OpenClaw(原 Moltbot):支持自托管的开源 AI 编码智能体,通过简单配置即可在终端获得完整的智能体编码体验。
● Qwen Code:针对 Qwen 系列深度优化的终端智能体,支持复杂代码库理解与自动化任务。
● Claude Code:Qwen API 现已兼容 Anthropic 协议,开发者可直接在 Claude Code 工作流中调用 Qwen3.6-Plus。
视觉智能体:从“看见”到“执行”
在多模态领域,Qwen3.6-Plus 实现了从视觉感知到智能体执行的闭环。模型不仅能通过视觉输入进行复杂的财务核算(如自动计算多张刮刮乐的中奖金额与利润),还能基于设计稿直接生成前端代码。这种“视觉 Agent”能力使其能够理解 GUI 界面并执行下一步操作,逐步演进为可在真实环境中持续感知的原生多模态系统。
此外,通义实验室还为 API 引入了
preserve_thinking 功能,允许保留前序轮次的思维链内容,这对于需要长程规划的复杂智能体任务尤为有益。据悉,Qwen3.6系列的更多版本(含高性能版及轻量开源版)将于近期陆续发布。via AI新闻资讯 (author: AI Base)
微信强化 “AI 魔改” 视频治理,处置违规短视频内容 3800 条
近日,微信平台发布了关于 “AI 魔改” 视频治理的公告(第六期),旨在进一步加强对不当内容的监管,以维护网络信息传播的良好秩序。这一举措是依据国家广播电视总局的部署要求,旨在遏制部分账号滥用 AI 工具对经典影视剧和动画片进行颠覆性篡改的问题。
在对平台内内容进行巡查时,发现一些账号存在违规发布不良导向的 “AI 魔改” 视频。这些视频扭曲了经典作品的原著精神,恶意解构主流共识,并对历史名人和英模故事进行歪曲,误导青少年价值观,损害了民族感情。此外,针对未成年人熟知的动画形象,部分视频也进行了恶意的邪典化和恐怖化改编。
根据国家相关法律法规以及《腾讯微信软件许可服务协议》和《微信视频号运营规范》的相关规定,平台对这些违规内容和账号采取了严格的处置措施。截至 2026 年 3 月,微信平台已累计处置违规短视频内容 3800 条,并对 1 个相关账号进行了封禁。这一治理行动表明了微信平台在保护网络环境和用户权益方面的决心和责任。
微信还呼吁所有内容创作者加强自律,携手共同维护清朗的网络生态。随着 “AI 魔改” 视频的治理工作持续推进,平台将进一步提升治理能力,确保对违规内容和账号的严厉打击,保障广大用户的良好体验。
via AI新闻资讯 (author: AI Base)
近日,微信平台发布了关于 “AI 魔改” 视频治理的公告(第六期),旨在进一步加强对不当内容的监管,以维护网络信息传播的良好秩序。这一举措是依据国家广播电视总局的部署要求,旨在遏制部分账号滥用 AI 工具对经典影视剧和动画片进行颠覆性篡改的问题。
在对平台内内容进行巡查时,发现一些账号存在违规发布不良导向的 “AI 魔改” 视频。这些视频扭曲了经典作品的原著精神,恶意解构主流共识,并对历史名人和英模故事进行歪曲,误导青少年价值观,损害了民族感情。此外,针对未成年人熟知的动画形象,部分视频也进行了恶意的邪典化和恐怖化改编。
根据国家相关法律法规以及《腾讯微信软件许可服务协议》和《微信视频号运营规范》的相关规定,平台对这些违规内容和账号采取了严格的处置措施。截至 2026 年 3 月,微信平台已累计处置违规短视频内容 3800 条,并对 1 个相关账号进行了封禁。这一治理行动表明了微信平台在保护网络环境和用户权益方面的决心和责任。
微信还呼吁所有内容创作者加强自律,携手共同维护清朗的网络生态。随着 “AI 魔改” 视频的治理工作持续推进,平台将进一步提升治理能力,确保对违规内容和账号的严厉打击,保障广大用户的良好体验。
下架内容案例:
1、AI魔改《三国演义》《水浒传》等经典影视作品,扭曲原著精神、颠覆角色设定、恶意解构主流共识;
2、AI魔改历史名人、英模故事,歪曲历史、亵渎英雄、误导青少年价值观,伤害民族感情;
3、AI魔改未成年人熟知的动画形象,恶意邪典化、恐怖化的改编内容。
via AI新闻资讯 (author: AI Base)
High error rate for completionsapi-gpt-5-nano
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Chat Completions (Degraded performance)
via OpenAI status
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Chat Completions (Degraded performance)
via OpenAI status
快手可灵AI月活突破 780 万,登顶全球移动端AI视频“新王座”
据Sensor Tower的最新数据显示,快手旗下的可灵AI在全球移动端市场表现强势。特别是在 OpenAI 宣布关闭 Sora 后,可灵AI凭借极高的用户黏性与口碑,已成为全球最受关注的视频模型。
核心数据:月活780万,断层领先 Sora
数据显示,在关键的月活跃用户(MAU)指标上,可灵AI已经实现了对 Sora 的全面压制:
数据对标:3月份,可灵AI移动端平均月活用户高达 780万,远超 Sora 的 470万。
增长态势: 仅上周,其全球周活跃用户(WAU)环比增长 4%,平均规模达 260万。
这标志着在 C 端大众市场,可灵AI已稳固占据全球第一大移动端 AI 视频创作社区的地位。
市场转折:Sora“离场”后的权力交接
此前,Sora 的关停在全球 AI 创作者群体中引发了巨大的技术真空。可灵AI凭借在运动大幅度控制、光影真实感以及移动端零门槛的操作体验,精准承接了这波流量红利。
深度解析:为什么是“可灵”?
行业分析指出,可灵AI的成功在于其深刻理解了短视频时代的创作逻辑:
极致便携: 相比 Web 端的繁琐,移动端的随时随地创作更符合大众习惯。
场景适配: 算法针对真实物理世界进行了深度建模,能够生成极具视觉张力的动态画面。
生态赋能: 背靠快手庞大的内容生态,让 AI 生成的内容有了天然的落地土壤。
行业观察:视频生成的“中国时刻”
Sensor Tower的数据虽然仅涵盖了部分移动端用户,但已足以反映出全球用户对“中国智造”大模型的认可。从技术追随到规模领跑,可灵AI的爆发不仅是一款产品的胜利,更是国产 AIGC 应用在商用化路径上的一次成功突围。
via AI新闻资讯 (author: AI Base)
据Sensor Tower的最新数据显示,快手旗下的可灵AI在全球移动端市场表现强势。特别是在 OpenAI 宣布关闭 Sora 后,可灵AI凭借极高的用户黏性与口碑,已成为全球最受关注的视频模型。
核心数据:月活780万,断层领先 Sora
数据显示,在关键的月活跃用户(MAU)指标上,可灵AI已经实现了对 Sora 的全面压制:
数据对标:3月份,可灵AI移动端平均月活用户高达 780万,远超 Sora 的 470万。
增长态势: 仅上周,其全球周活跃用户(WAU)环比增长 4%,平均规模达 260万。
这标志着在 C 端大众市场,可灵AI已稳固占据全球第一大移动端 AI 视频创作社区的地位。
市场转折:Sora“离场”后的权力交接
此前,Sora 的关停在全球 AI 创作者群体中引发了巨大的技术真空。可灵AI凭借在运动大幅度控制、光影真实感以及移动端零门槛的操作体验,精准承接了这波流量红利。
深度解析:为什么是“可灵”?
行业分析指出,可灵AI的成功在于其深刻理解了短视频时代的创作逻辑:
极致便携: 相比 Web 端的繁琐,移动端的随时随地创作更符合大众习惯。
场景适配: 算法针对真实物理世界进行了深度建模,能够生成极具视觉张力的动态画面。
生态赋能: 背靠快手庞大的内容生态,让 AI 生成的内容有了天然的落地土壤。
行业观察:视频生成的“中国时刻”
Sensor Tower的数据虽然仅涵盖了部分移动端用户,但已足以反映出全球用户对“中国智造”大模型的认可。从技术追随到规模领跑,可灵AI的爆发不仅是一款产品的胜利,更是国产 AIGC 应用在商用化路径上的一次成功突围。
via AI新闻资讯 (author: AI Base)
国产 LLM 工具链再升级!开源 LLMOps 平台 Maxkb4j v2.6.0 正式发布
据报道,基于 Java 开发的开源 LLMOps 平台 Maxkb4j 正式发布了 v2.6.0 版本。作为一款集成了 LLM 工作流与 RAG(检索增强生成)能力的深度开发平台,本次更新在技能扩展、安全鉴权及系统稳定性方面实现了显著跨越。
核心赋能:技能工具与 Webhook 鉴权双落地
Maxkb4jv2.6.0在功能层面上完成了多项“重头戏”:
技能工具支持: 新增了对 Shell 工具及系统消息集成的支持,这意味着开发者可以更灵活地调用底层系统能力,构建具备复杂执行逻辑的智能体。
安全再加固: 为了满足企业级应用的合规需求,新版本为 Webhook 触发器引入了 Token 鉴权功能,确保了外部链路调用的安全性。
架构演进: 项目紧跟前沿生态,完成了langchain4j版本的升级,进一步增强了与各类主流大模型的兼容性。
细节打磨:告别“空指针”与冗余逻辑
在追求功能扩张的同时,泰山 AI 团队对系统的“鲁棒性”进行了深度手术:
模型优化: 移除了模型服务中的缓存注解,并重构了模型提供商枚举及 HTTP 客户端初始化策略,提升了模型响应的确定性。
知识库增强: 将文本分词工具重构为更高效的 Tokenizer,并修复了问题段落索引创建中的字段映射错误。
交互修复: 解决了应用图标更新空值、登录验证码清除残留以及聊天信息初始化缓存等一系列影响用户体验的细节 Bug。
产品定位:博采众长的 Java 系 LLM 标杆
作为一款 Star 数已突破1200的热门开源项目,Maxkb4j 在研发过程中充分借鉴了 MaxKB、Dify 和 FastGPT 等行业先驱的优点。其坚持使用高性能、高稳定性的 Java 语言开发,旨在为国内开发者提供一个低门槛、易部署且符合工业级标准的 AI 应用底座。
结语:为 AI 开发者提供“稳稳的幸福”
随着 v2.6.0版本的上线,Maxkb4j 正在从一个简单的 RAG 工具演变为一个全功能的智能体编排中心。对于希望在 Java 生态下快速构建私有化 AI 知识库或复杂工作流的企业而言,这一版本无疑提供了更具安全感与扩展性的选择。
via AI新闻资讯 (author: AI Base)
据报道,基于 Java 开发的开源 LLMOps 平台 Maxkb4j 正式发布了 v2.6.0 版本。作为一款集成了 LLM 工作流与 RAG(检索增强生成)能力的深度开发平台,本次更新在技能扩展、安全鉴权及系统稳定性方面实现了显著跨越。
核心赋能:技能工具与 Webhook 鉴权双落地
Maxkb4jv2.6.0在功能层面上完成了多项“重头戏”:
技能工具支持: 新增了对 Shell 工具及系统消息集成的支持,这意味着开发者可以更灵活地调用底层系统能力,构建具备复杂执行逻辑的智能体。
安全再加固: 为了满足企业级应用的合规需求,新版本为 Webhook 触发器引入了 Token 鉴权功能,确保了外部链路调用的安全性。
架构演进: 项目紧跟前沿生态,完成了langchain4j版本的升级,进一步增强了与各类主流大模型的兼容性。
细节打磨:告别“空指针”与冗余逻辑
在追求功能扩张的同时,泰山 AI 团队对系统的“鲁棒性”进行了深度手术:
模型优化: 移除了模型服务中的缓存注解,并重构了模型提供商枚举及 HTTP 客户端初始化策略,提升了模型响应的确定性。
知识库增强: 将文本分词工具重构为更高效的 Tokenizer,并修复了问题段落索引创建中的字段映射错误。
交互修复: 解决了应用图标更新空值、登录验证码清除残留以及聊天信息初始化缓存等一系列影响用户体验的细节 Bug。
产品定位:博采众长的 Java 系 LLM 标杆
作为一款 Star 数已突破1200的热门开源项目,Maxkb4j 在研发过程中充分借鉴了 MaxKB、Dify 和 FastGPT 等行业先驱的优点。其坚持使用高性能、高稳定性的 Java 语言开发,旨在为国内开发者提供一个低门槛、易部署且符合工业级标准的 AI 应用底座。
结语:为 AI 开发者提供“稳稳的幸福”
随着 v2.6.0版本的上线,Maxkb4j 正在从一个简单的 RAG 工具演变为一个全功能的智能体编排中心。对于希望在 Java 生态下快速构建私有化 AI 知识库或复杂工作流的企业而言,这一版本无疑提供了更具安全感与扩展性的选择。
via AI新闻资讯 (author: AI Base)
4月2日,蚂蚁集团AI安全实验室与清华大学联合开源ClawAegis——这是首个覆盖OpenClaw全生命周期的安全防御插件,旨在系统性解决其面临的安全与可靠性风险,为自主智能体提供多维度、轻量化、即时干预的原生防护能力。
随着OpenClaw等开源智能体框架的快速普及,其自动化能力背后潜藏的安全风险也日益显现。从skill投毒、记忆数据污染,到意图被恶意诱导、执行高危操作乃至资源被耗尽,智能体在初始化、用户输入、模型推理、智能决策到服务执行的全生命周期均面临挑战。
针对这些风险,ClawAegis构建了覆盖上述五大阶段的全链路纵深防御体系,能够主动识别并拦截包括恶意指令注入、敏感信息窃取、用户意图篡改、权限越界调用在内的多种运行时威胁。
作为一款内置的轻量化安全插件,ClawAegis可无缝集成至OpenClaw框架,在关键执行节点动态激活防护机制。同时,它提供高度可配置的风险识别与处置策略,方便安全运营人员灵活应对不同攻击场景;对于普通用户,则提供敏感文件与Skill资产的透明化保护。
此次开源,是继蚂蚁AI安全实验室近期协助修复OpenClaw多个高危漏洞后的又一举措。未来,双方将持续迭代ClawAegis能力,与社区共同构建可信、可控、可追溯的智能体运行环境。
via AI新闻资讯 (author: AI Base)
4月2日,腾讯旗下AI协作工具WorkBuddy突发大规模登录故障,腾讯云官方随后发布声明致歉并公布补偿方案。
监测数据显示,故障始于当日上午09:10,国内部分用户遭遇页面504服务错误、无法登录及程序闪退等异常情况。针对此次服务中断,腾讯技术团队紧急介入处理,相关功能于11:45起逐步恢复。为补偿用户损失,官方承诺向所有受影响的国内用户发放1000Credits积分,并预计在两个工作日内到账。
尽管官方午后通报服务已全面恢复稳定,但社交媒体及实时评论显示,午后仍有部分用户反映官网访问困难及产品持续崩溃,显示系统稳定性仍面临长尾挑战。WorkBuddy作为腾讯协同办公生态中的重要AI组件,其服务波动直接影响了企业级用户的生产力流转。
via AI新闻资讯 (author: AI Base)
谷歌开源大模型 Gemma 4 官宣在即:参数量翻 4 倍
在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。
据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。
规格大升级:120B 新模型挑战本地运行极限
相比前代产品,Gemma 4 在参数规模上实现了跨越式增长:
● 四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。
● MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。
● 能力进化: 预测显示,Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。
战略博弈:在开源社区围堵“中国力量”
快科技分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:
● 时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。
● 本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。
行业观察:开源赛道进入“参数与效率”双拼时代
随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。
via AI新闻资讯 (author: AI Base)
在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。
据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。
规格大升级:120B 新模型挑战本地运行极限
相比前代产品,Gemma 4 在参数规模上实现了跨越式增长:
● 四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。
● MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。
● 能力进化: 预测显示,Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。
战略博弈:在开源社区围堵“中国力量”
快科技分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:
● 时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。
● 本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。
行业观察:开源赛道进入“参数与效率”双拼时代
随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。
via AI新闻资讯 (author: AI Base)