https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
钉钉悟空 AI 正式发布:双击即用的企业级“数字员工”

在 AI 应用落地的竞速赛中,钉钉正试图通过极致的“低门槛”策略,让复杂的 AI 技术变得像安装普通软件一样简单。

近日,钉钉悟空 AI 正式开启初体验。与以往技术部署动辄需要专业团队、甚至引发“499元代安装”热潮的复杂产品不同,这款定位为企业级助理的 AI 产品,正凭借其安全、懂你且“傻瓜式”的操作体验,重新定义办公 AI 的标准。

部署革命:从“专家代劳”到“双击完事”

曾几何时,高性能 AI 的安装曾让不少非技术用户望而却步,甚至催生了代安装的灰色产业链。而 悟空 AI 彻底终结了这一现状:

● 五分钟上手: 用户只需官网下载安装包,双击安装、登录钉钉账号即可完成全部配置。
● 零术语要求: 无需配置任何复杂环境,只要会用电脑,就能轻松驾驭这款顶尖 AI。

交互创新:左手导航,右手“算粒”

打开 悟空 AI 的界面,其设计逻辑清晰且极具互联网原生感:

● 核心交互: 中间区域以对话框为核心,上方则是悟空的拟人化形象,拉近了用户与技术的距离。
● 数字货币: 界面右下角引入了名为 “算粒” 的计数器。这是悟空 AI 的“货币”,目前每天免费赠送100个,让 AI 资源消耗变得直观可见。

安全先行:打造最懂企业的“私人助理”

作为钉钉生态的重要组成部分,悟空 AI 的核心优势在于对企业数据的安全保障与深度理解:

● 懂你所想: 依托钉钉庞大的办公数据生态,它能更精准地理解工作语境,协助处理会议纪要、周报提炼等繁琐任务。
● 安全底座: 在提供智能服务的同时,悟空 AI 强调了严苛的数据隔离与隐私保护,解决企业对 AI 接管核心业务的后顾之忧。

行业回响:AI 焦虑的“退烧药”

在社交媒体上,关于“OpenClaw 治不好 AI 焦虑”的讨论不绝于耳。而 悟空 AI 的出现,似乎给出了一种务实的解法:与其追求虚无缥缈的全能感,不如通过简单、好用的工具解决最现实的办公痛点。

随着微博正式接入百度智能云 DuClaw 强化数据洞察,以及设计师、程序员岗位面临 AI 冲击的讨论升温,钉钉悟空 AI 的落地无疑为企业提供了一个更平稳的技术过渡方案。当 AI 不再需要高昂的安装费,真正的办公革命才算真正开启。

via AI新闻资讯 (author: AI Base)
降本增效天花板:Cloudflare 弃用闭源模型改用 Kimi K2.5

在全球互联网基础设施巨头 Cloudflare 的最新技术演进中,一场关于“算力性价比”的变革正在发生。据 Kimi 开放平台披露,Cloudflare 已正式将月之暗面(Moonshot AI)旗下的开源模型 Kimi K2.5引入其核心生产业务。

这一决策并非心血来潮,而是基于严苛的性能评估:Kimi K2.5凭借256k 的超大上下文窗口、敏锐的视觉输入能力以及在多轮工具调用中的高稳定性,成功在编程和 Agent 任务中替代了原有的高成本闭源模型。

成本削减77%:从百万美元到“零头”的跨越

Cloudflare 工程师在日常开发中已广泛将 Kimi K2.5作为“主力驱动”。一个典型的应用案例是负责扫描代码库安全缺陷的 AI 智能体,该 Agent 每天需处理超过70亿个 Token。据测算,若维持原有的闭源模型方案,仅这一个用例每年就需耗费约240万美元。

而在切换至 Kimi K2.5后,推理成本直降77%,将原本沉重的财务负担削减到了原来的零头。更令人振奋的是,这种成本的极速压缩并未带来质量折损,该模型甚至曾在单一仓库中一次性精准识别出15个已确认的安全漏洞。

拥抱开源趋势:摆脱闭源依赖的战略转型

Cloudflare CEO Matthew Prince 在 SXSW2026大会上曾预言,未来互联网流量将由数以亿计的 AI 智能体驱动,推理需求将呈指数级增长。

面对这一趋势,Cloudflare 正在有意识地摆脱对闭源模型的依赖,转向更高性价比的开源替代方案。Kimi K2.5的成功集成,不仅验证了国产开源模型在处理复杂代码审查和 Agent 自动化任务时的卓越性能,也为全球科技企业在 AI 规模化落地过程中如何实现“降本”与“增效”的平衡提供了极具参考价值的范本。

via AI新闻资讯 (author: AI Base)
Google Lyria 3 Pro可以生成更长的AI歌曲

谷歌正在扩展Lyria 3音乐生成人工智能的功能,使其能够创作长达三分钟的曲目,并可在多个其他谷歌产品内直接使用。Lyria此前仅限于生成30秒的片段。Lyria 3 Pro不仅将最大时长提升了六倍,还允许用户通过提示指定前奏、副歌和桥段等特定元素,从而对编曲实现更精细的控制。Lyria 3 Pro的工作原理与其他热门音乐生成工具(如 Suno 和 Udio)非常相似。描述一种情绪、风格或乐器配置,它就能生成一首曲目。它还能根据你的提示,甚至是一张参考图片或视频来生成歌词。Lyria 3 Pro 的突出特点之一是其与其他谷歌产品的集成。例如,你可以直接在Gemini中创作曲目,无需下载专用的应用。

—— Theverge

via 风向旗参考快讯 - Telegram Channel
特朗普组建白宫科技顾问委员会 马斯克未在受邀名单

美国总统特朗普正邀请硅谷一些最有影响力的人物加入一个新的白宫顾问委员会,帮助指导美国在人工智能和其他关键技术领域的政策。这个顾问委员会的成员包括Meta首席执行官马克·扎克伯格、甲骨文公司执行董事长拉里·埃里森和英伟达CEO黄仁勋等人,但特朗普的前亲密盟友埃隆·马斯克被排除在外。

美国科技政策办公室发布的新闻稿称,总统科技顾问委员会(PCAST)“汇聚了美国科技领域最杰出的专家学者,为总统提供建议,并就如何加强美国在科技领域的领导地位提出建议。”新闻稿还补充说,该委员会将重点关注“新兴技术给美国劳动力带来的机遇和挑战,以及如何确保所有美国人在创新黄金时代蓬勃发展”等议题。

新闻稿称,自1933年富兰克林·罗斯福以来,每位总统都设立了由科学家、工程师和行业领袖组成的总统科技顾问委员会(PCAST)。

特朗普于今年1月通过行政命令成立了总统科技顾问委员会,该委员会最多可由 24 名成员组成,将由白宫人工智能和加密货币事务负责人大卫·萨克斯和高级技术顾问迈克尔·克拉齐奥斯共同担任主席。新任命的成员包括:安德森霍洛维茨基金联合创始人马克·安德森、谷歌联合创始人谢尔盖·布林、甲骨文前CEO萨弗拉·卡茨、戴尔科技创始人兼首席执行官迈克尔·戴尔、Oklo联合创始人兼CEO雅各布·德维特、Coinbase联合创始人弗雷德·埃尔萨姆、企业家兼投资人大卫·弗里德伯格、物理学家兼加州大学圣巴巴拉分校教授约翰·马蒂尼斯、联邦聚变系统公司首席执行官鲍勃·穆姆加德以及AMD首席执行官苏姿丰。

该委员会主要由引领商业人工智能发展的行业领袖和投资者组成,卡茨和苏姿丰是委员会中仅有的两位女性,马蒂尼斯是唯一的学术研究人员。

其他一些知名高管,如苹果CEO蒂姆·库克和OpenAI的联合创始人萨姆·奥特曼,也没有成为新顾问委员会的成员。微软公司也没有任何高管受邀加入。

作为世界上最富有的人,马斯克曾为特朗普竞选总统捐款超过2.5亿美元。在特朗普第二任期的最初几个月里,马斯克是他最亲密的顾问之一,但两人因“大而美”法案的争议而一度决裂。

此后,两人关系有所缓和,但并未恢复到昔日的亲密程度。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
谷歌新算法声称能“六倍压缩KV缓存”

谷歌推出了一种可能降低人工智能系统内存需求的压缩算法TurboQuant。根据谷歌介绍,TurboQuant压缩技术旨在降低大语言模型和向量搜索引擎的内存占用。该算法主要针对AI系统中用于存储高频访问信息的键值缓存(key-value cache)瓶颈问题。随着上下文窗口变大,这些缓存正成为主要的内存瓶颈。TurboQuant可在无需重新训练或微调模型的情况下,将键值缓存压缩至3bit精度,同时基本保持模型准确率不受影响。对包括Gemma、Mistral等开源模型的测试显示,该技术可实现约6倍的键值缓存内存压缩效果。

—— 财联社

via 风向旗参考快讯 - Telegram Channel
内存焦虑终结者:谷歌发布 TurboQuant 让大模型瘦身六倍

在大语言模型(LLM)的推理过程中,内存瓶颈一直是制约性能的“头号杀手”。每当 AI 处理长文本或生成复杂回答时,一种被称为 KV 缓存(Key-Value Cache)的“工作内存”就会迅速膨胀,导致系统运行缓慢甚至崩溃。针对这一难题,谷歌研究院在2026年3月26日正式推出了名为 TurboQuant 的新型 AI 内存压缩技术。

该技术的核心突破在于,它能在不牺牲模型精度的前提下,将缓存内存占用缩减至原来的六分之一,同时让推理速度实现最高8倍的惊人提升。

攻克 KV 缓存瓶颈:让 AI 记住更多且跑得更快

TurboQuant 的诞生标志着 AI 运行效率进入了新的维度。它采用了先进的向量量化方案,主要由 PolarQuant 量化方法和 QJL 优化手段组成。在针对 Gemma 和 Mistral 等主流开源大模型的严苛测试中,TurboQuant 表现出了极强的适配性:它无需任何预训练或微调,就能将键值缓存高效压缩至3比特。在模拟真实复杂场景的“大海捞针”长上下文测试中,该技术实现了零精度损失,这意味着 AI 在大幅度“瘦身”后,依然能保持原有的聪明才智和记忆准确度。

硬件效能巅峰:H100加速器上的8倍飞跃

除了内存占用的缩减,TurboQuant 在硬件利用率上的表现同样令行业兴奋。在高性能的 H100GPU 加速器上,经过4比特优化的 TurboQuant 运行速度较未量化的32比特基准提升了整整8倍。

这项成果计划在下个月举行的 ICLR2026会议上正式发布。对于广大开发者和企业而言,这意味着未来在同等硬件条件下,可以运行更大规模的模型,或者支持更长、更复杂的对话上下文,极大地降低了 AI 应用的部署成本与门槛。

via AI新闻资讯 (author: AI Base)
工信部征求《人工智能模型上下文协议》等121项行业标准意见

工信部正式发布通知,针对**《人工智能 安全治理 模型上下文协议应用安全要求》等121项行业标准计划项目公开征求意见。此举标志着我国在AI底层协议标准化与安全监管体系建设上迈出关键一步。本次征求意见的核心指向模型上下文协议(Model Context Protocol)**的应用安全,旨在通过规范化的技术标准,解决大模型在多模态交互、长文本处理及跨平台调用过程中的协议兼容与数据安全风险。

via AI新闻资讯 (author: AI Base)
OpenClaw 完全指南:这可能是全网最新最全的系统化教程了!

via 掘金人工智能本月最热 (author: ConardLi)
GitHub 政策大反转:私有仓库代码也将喂给 AI

全球最大的代码托管平台 GitHub 近日丢下了一枚重磅炸弹:官方宣布将从 2026 年 4 月 24 日起,开始使用用户的交互数据来训练其 AI 模型。这一举动被不少开发者戏称为“撤销键(CTRL-Z)”操作,因为 GitHub 此前曾多次在公开场合强调对用户私有数据的尊重,而新政策显然打破了这一默契。

“默认加入”引发争议,私有仓库不再绝对私密

根据 GitHub 更新的隐私条款,Copilot 的免费版、个人版(Pro)以及专业增强版(Pro+)用户都在此次数据采集范围内。系统将自动抓取包括代码片段、输入输出内容、光标上下文、甚至文件名和目录结构在内的详尽数据。最令社区不安的是,即使是存储在“私有仓库”中的代码,只要用户在编辑时开启了 Copilot,相关代码片段也可能被摄取用于模型训练。GitHub 首席产品官马里奥·罗德里格斯对此解释称,内部员工的测试证明,加入真实交互数据能显著提升 AI 捕捉 Bug 的准确率,但这种“默认开启”而非“手动加入”的策略,在开发者社区引发了强烈反弹,相关公告下的反对票数瞬间激增。

如何自保:企业用户豁免与手动关闭指南

在这场数据掠夺战中,并非所有用户都处于被动地位。GitHub 明确表示,购买了 Copilot 商业版(Business)和企业版(Enterprise)的付费组织,以及通过认证的学生和教师,将受到合同条款保护,其数据不会被用于训练。

对于普通个人用户,如果不想让自己的代码变成 AI 进化的养料,必须在 4 月 24 日限期前手动完成防御操作。用户需要前往 GitHub 的设置界面,在 Copilot 隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”并将其关闭。虽然官方辩称这一做法与 Anthropic、JetBrains 等同行的行业惯例保持一致,但在“隐私优先”呼声日益高涨的今天,这种解释显然难以平息社区的怒火。

via AI新闻资讯 (author: AI Base)
哈佛教授“收徒”AI:仅用两周将 Claude 培养成物理系研二学生

人工智能在学术科研领域的进化速度,正在挑战人类的想象力。

近日,哈佛大学 教授 Schwartz 完成了一项惊人的实验:他通过为期两周的“导师制”训练,成功将 AI 模型 Claude 培养成了一名具备物理专业“研二水平”的研究员。这标志着大模型正从简单的知识检索工具,演变为能够深度参与前沿科学探索的科研伙伴。

进化之路:从“懵懂新生”到“独立研究者”

在这场为期14天的实验中,Claude 展示了与人类研究生高度相似的成长轨迹:

任务拆解: 面对复杂的物理难题,Claude 能够主动联手 GPT-5.2Gemini3.0 等模型梳理思路,将大课题拆分为102个细碎任务。

高强度对话: 实验期间,导师与 AI 进行了约270次深度对话,累计消耗约 3600万 tokens

论文迭代: 经过110次草稿迭代,AI 最终独立完成了具备专业水准的科研产出。

导师角色转变:人类只负责“指路”与“纠偏”

在整个研究过程中,Schwartz 教授扮演了纯粹的“导师”角色:

设定边界: 仅负责指出逻辑错误、设定研究边界并把控整体方向。

拒绝“代笔”: 教授绝不插手具体的计算与推导,所有的硬核攻坚均由 AI 独立完成。

对症下药: 针对 AI 偶尔想“抄近道”或遗漏步骤的小毛病,教授通过精准提醒引导其自我修正。

科研新范式:双线作战的“AI 博士后”

实验进入攻坚期后,Claude 展示了人类难以企及的多任务处理能力:一边推导复杂的物理公式,一边同步编写底层计算代码。这种“理论推导+编程计算”的双线协同,极大地缩短了科研周期。

结语:AI 读研时代的到来

哈佛教授的这项实验向学术界释放了一个清晰信号:AI 已经具备了处理高难度、非标准化科研任务的能力。当大模型可以像研究生一样通过“实战”快速成长,未来的科学发现或许将进入由人类定义方向、由 AI 深度执行的“自动驾驶”时代。

via AI新闻资讯 (author: AI Base)
别了 Sora 留住 Codex!OpenAI 工程负责人:将加大资源投入,App 确定保留

在OpenAI内部产品线经历剧烈震荡的当下,作为编程辅助领域“老兵”的 Codex 终于传来了让开发者安心的消息。

3月26日,据媒体报道,OpenAI Codex 工程负责人公开明确表态:Codex App 将继续保留,不会进入裁撤名单。

逆势加码:资源投入远超以往

不同于被关停的视频生成产品,Codex 正在迎来属于它的“第二春”。该负责人强调:

● 开发加速: 团队目前正比以往投入更多的资源进行技术开发与迭代。
● 品质飞跃: 官方透露,该应用很快将迎来重大更新,性能表现将变得“相当出色”。

战略定力:编程基座地位稳固

作为驱动 GitHub Copilot 等顶尖编程工具的底层核心,Codex 的保留意味着 OpenAI 依然将其作为核心生产力底座。

● 生态护城河: 相比视频生成的成本博弈,编程模型在实际开发环境中的高频使用,为其提供了更稳健的商业模式。
● 技术进化: 随着更多资源的倾斜,新版 Codex 有望在逻辑推理与复杂架构生成上实现质的突破。

结语:生产力工具的“稳”字诀

在全球 AI 巨头不断“修剪”实验性产品的寒冬里,OpenAICodex 的力挺,向开发者社区释放了强烈的信号:编程 AI 已经从实验步入成熟应用期。当资源进一步向确定性场景倾斜,这款即将焕然一新的编程神器显然更值得期待。

via AI新闻资讯 (author: AI Base)
告别“无尽确认”:Anthropic 推出 Claude Code 自动模式

在程序员与 AI 协作的过程中,“权限确认”往往是打断心流的最大杀手。为了解决这一痛点,Anthropic 近日为其 AI 驱动的命令行采编工具 Claude Code 推出了全新的“自动模式(Auto Mode)”。这一功能旨在通过智能授权机制,减少用户在执行长任务时的频繁干预,让开发者能够真正实现“开始任务后转身离开”。

平衡效率与安全:智能过滤高危动作

在自动模式推出之前,Claude Code 的默认权限设置非常保守,几乎每一次文件写入或 Bash 命令执行都需要用户手动批准。虽然开发者可以通过特定指令强制跳过权限检查,但这在非隔离环境下极具风险。

新推出的自动模式则提供了一条“中间道路”。在该模式下,系统会引入一个专门的分类器,在每项工具调用运行前进行实时审查。它会自动识别并拦截潜在的破坏性操作,例如大规模删除文件、敏感数据外泄或执行恶意代码。对于判定为安全的常规操作,AI 则会自动推进,显著降低了交互频率,同时比完全关闭权限保护要安全得多。

分阶段推送:从研究预览到企业级应用

目前,这一自动模式正处于研究预览阶段,首批面向 Claude Team 用户开放。Anthropic 表示,该功能将在未来几天内逐步推送到企业用户及 API 用户。尽管分类器已经能够过滤大部分风险,但官方依然提醒,在环境上下文不足或用户意图模糊时,系统仍可能出现误判。

随着 Claude Code 的持续进化,这种“自动驾驶”式的编程体验正变得越来越成熟。它不仅是简单的代码生成,更是通过对开发流程中“信任链”的重构,试图在保障系统安全的前提下,将开发者的生产力从繁琐的行政确认中彻底解放出来。

via AI新闻资讯 (author: AI Base)
关于 Apifox 公网 SaaS 版外部 JS 文件受篡改的风险提示与升级公告

https://mp.weixin.qq.com/s/GpACQdnhVNsMn51cm4hZig?scene=0&subscene=90
OpenAI 押注“机器人军团”:23 岁天才少年获萨姆·奥特曼青睐

就在 OpenAI 调整自身视频战略之际,萨姆·奥特曼正将目光投向更具野心的“智能体集群”赛道。据华尔街日报最新披露,OpenAI 秘密投资了一家名为 Isara 的 AI 初创公司。这家初创公司的背景极其引人注目,其创始人是两位年仅 23 岁的 AI 研究员 Eddie Zhang 和 Henry Gasztowtt。尽管公司去年 6 月才在旧金山成立,但已迅速从谷歌、Meta 以及 OpenAI 本身挖走了十余名顶尖研究人才,组建起了一支技术背景深厚的“精锐部队”。

重塑协作逻辑:让数千个 AI 智能体“对话”

Isara 的核心愿景是构建一套能够协调成千上万个 AI 智能体(Agents)协同工作的软件系统。在当前的技术背景下,单个 AI 助手虽然强大,但在处理生物技术研发或复杂金融建模等大型工业问题时,往往显得力不从心。Isara 试图攻克的难点在于如何让这些“机器人军团”实现高效沟通与任务分工。通过其开发的底层架构,不同职能的 AI 智能体可以像一支训练有素的军队一样,在复杂的行业流程中自动对齐目标、交换数据并解决连锁反应式的问题。

从实验室到工业前沿:开启自主研发新范式

这种“智能体集群”技术被视为 AI 通向通用人工智能(AGI)的关键一步。OpenAI 此次背书不仅是资金上的注入,更意味着行业巨头对“分布式智能”方向的认可。在生物医药领域,这种技术可以让 AI 军团同时模拟成千上万种蛋白质折叠路径,并由专门的“协调智能体”总结规律;在金融领域,它则能实时联动全球市场数据进行压力测试。这种由 23 岁年轻人领导的技术变革,正试图证明 AI 的下一次突破不在于模型变得多大,而在于它们如何更好地成群结队地工作。

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]