https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Elevated errors on Claude Haiku 4.5
Apr 30, 13:10 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Apr 30, 13:10 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
OpenAI正准备推出一款新的前沿网络安全模型GPT-5.5-Cyber。公司首席执行官萨姆·奥尔特曼表示,这一模型不会面向公众开放,而是会率先提供给一批经过筛选、值得信任的“网络防御者”,以帮助相关机构加强自身的网络安全防护能力。
根据奥尔特曼在X平台上的说法,这一有限范围的首轮开放将在“未来几天内”启动。与此同时,OpenAI还将与整个行业生态以及美国政府合作,研究如何为网络安全领域建立一套“可信访问”机制。
目前,OpenAI尚未明确首批获得使用权限的具体对象。不过,从该公司此前推出的“可信访问”计划来看,相关安排通常面向经过审核的专业人士和机构。对于GPT-5.5-Cyber本身的技术细节、能力边界以及具体规格,OpenAI暂时也没有对外披露更多信息。
从命名来看,GPT-5.5-Cyber很可能是近期发布的GPT-5.5的一个专业化版本。OpenAI此前曾将GPT-5.5描述为其“迄今最聪明、也最直观易用”的模型,因此外界普遍认为,GPT-5.5-Cyber将是在这一基础上,针对网络安全场景进行定向强化的衍生产品。
分阶段、小范围发布高能力模型,正在成为AI行业越来越明显的一种趋势。多家企业都开始强调,旗下最先进的模型因存在被滥用的风险,不适合直接向公众全面开放。OpenAI此前就曾对其面向网络安全的模型采取分批发布策略;除了网络安全方向,公司新近推出的生命科学专用模型GPT-Rosalind,也同样属于为特定高敏感领域量身打造的产品,主要服务于生物学研究和药物发现。
本月,Anthropic也采用了相似路径,推出Claude Mythos,并对外大力宣传其高门槛、安全受控的发布方式。不过,Anthropic在该模型的安全发布过程中出现了颇为尴尬的失误,使相关安排一度陷入争议。
报道还提到,尽管白宫与Anthropic此前因五角大楼相关问题关系紧张,但美国政府仍高度关注Mythos的上线进程。根据《华尔街日报》披露,白宫近期甚至反对进一步扩大Mythos的访问范围,这也从侧面反映出,美国政府对于高能力、可能涉及安全风险的AI模型发布,正表现出愈发直接和谨慎的介入态度。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
白宫反对Anthropic扩大Mythos模型用户群体的计划
白宫反对Anthropic公司扩大该公司强大人工智能模型 Mythos 用户范围的计划,这使得这款能够发动网络攻击并造成大范围网络混乱的AI工具的推广变得复杂。据知情人士透露,Anthropic最近提议,再增加约70家公司和组织使用Mythos,这样一来,获得使用权限的实体总数将达到约 120个。这些人士表示,美国政府官员告知该公司,出于安全方面的担忧,他们反对这一举动。一些白宫官员还担心,Anthropic没有足够的算力来服务这么多新增实体,同时又不影响政府有效使用该模型的能力。由于Mythos模型构成国家安全风险,白宫参与了其推广过程。该模型发现和利用软件漏洞的能力近几周已让政府机构和公司感到不安。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
白宫反对Anthropic公司扩大该公司强大人工智能模型 Mythos 用户范围的计划,这使得这款能够发动网络攻击并造成大范围网络混乱的AI工具的推广变得复杂。据知情人士透露,Anthropic最近提议,再增加约70家公司和组织使用Mythos,这样一来,获得使用权限的实体总数将达到约 120个。这些人士表示,美国政府官员告知该公司,出于安全方面的担忧,他们反对这一举动。一些白宫官员还担心,Anthropic没有足够的算力来服务这么多新增实体,同时又不影响政府有效使用该模型的能力。由于Mythos模型构成国家安全风险,白宫参与了其推广过程。该模型发现和利用软件漏洞的能力近几周已让政府机构和公司感到不安。
—— 华尔街日报
via 风向旗参考快讯 - Telegram Channel
科技圈🎗在花频道📮:
🤖 DeepSeek 上新识图功能,多模态推出 🌸 在花频道 · 茶馆讨论 · 投稿通道
DeepSeek 发布视觉基元推理报告,解决多模态 Reference Gap
2026 年 4 月 30 日,DeepSeek 公开技术报告《Thinking with Visual Primitives》,提出将点、框等视觉基元作为思维最小单元交错嵌入推理链,解决复杂结构推理中的 Reference Gap。方法基于 DeepSeek-V4-Flash 架构,压缩 KV 缓存,以极低图像 token 消耗完成推理。在计数和空间推理基准上,该模型性能与 GPT-5.4、Claude-Sonnet-4.6、Gemini-3-Flash 相当(论文强调仅覆盖部分相关维度,不代表整体能力)。未来将开源内部基准、部分冷启动数据,权重将整合至基础模型后发布。
GitHub
🌸 在花频道 · 茶馆讨论 · 投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
4月30日,钉钉正式发布 AI 硬件家族新成员 DingTalk A1Pro,并于天猫官方旗舰店开售,定价1299元。该产品定位为专业 AI 录音卡片,专为高频出差的商务人士与超级个体打造,通过“AI 办公+应急补能”的复合功能设计,进一步拓展了钉钉软硬一体化的服务边界。
硬件配置上,DingTalk A1Pro 机身厚度仅6.4mm,支持磁吸设计并配备触控屏幕。其核心搭载专业级 MEMS 指向性麦克风,拾音距离达10米。相较于2025年发布的初代产品,Pro 版显著强化了续航与多功能性:内置2980mAh 电池支持180小时连续录音及180天待机,且通过了新国标3C 认证,可作为应急充电宝为手机反向充电。
在系统协同方面,该硬件与钉钉工作流深度整合。录音内容经由 AI 听记处理后,可一键生成会议纪要、日程及待办事项,实现数据在钉钉工作台的无缝流转。针对 B 端需求,钉钉同步推出了企业版本,支持统一采购、设备管理及加密存储。此外,购机用户可获赠6个月专属权益,包含每月1500分钟的 AI 转写时长。
行业分析指出,DingTalk A1Pro 的发布意味着钉钉正加速将 AI 能力从软件端向物理办公场景渗透。通过解决出差场景下“高质量记录”与“电量焦虑”的双重痛点,钉钉试图利用 AI 硬件建立更具黏性的办公生态闭环,推动 AI 智能体(Agent)从云端走向更具体的随身硬件形态。
via AI新闻资讯 (author: AI Base)
押注于人而非代码:Zig 项目全面禁止 LLM 辅助贡献引发热议
在生成式 AI 席卷编程领域的当下,知名开源项目 Zig 近期采取了一项“逆流而上”的严格政策:全面禁止使用大语言模型(LLM)生成的代码或评论参与项目贡献。这一决策由知名开发者 Simon Willison 深度解读后,迅速在开源社区引发了关于技术效率与人才培养之间博弈的广泛讨论。
核心矛盾:代码产出与人才成长的取舍
Zig 项目维护者的立场核心在于对“贡献”定义的重新审视。他们认为,开源项目的终极价值并非单纯获取现成的代码片段,而是发掘并培养长期可信、具备成长潜力的贡献者。在该项目组看来,审查代码(Pull Request)的过程本质上是一场深度沟通,旨在帮助新人理解技术规范并建立互信。
然而,一旦开发者开始依赖 LLM 辅助,这种传统的导师制(Mentorship)机制便面临坍塌。维护者指出,AI 可以轻易生成表面逻辑通顺的代码,但这导致他们无法判断提交者是否真正掌握了背后的底层原理。如果一个合并请求主要由 AI 驱动,维护者将面临一个尴尬的逻辑悖论:与其耗费精力去审查人类操作 AI 生成的代码,不如直接由维护者运行自己的 AI 模块来解决问题。
行业案例:即便高度自动化也难获豁免
这一政策并非针对 AI 技术的偏见,而是基于对社区长期健康发展的审慎考量。高性能 JavaScript 运行时 Bun 的案例成为了该政策的有力佐证。尽管 Bun 团队内部重度使用 AI 辅助开发以追求极致效率,但由于其产出的代码无法证明出自“真实人类贡献者”的学习与理解过程,依然不符合 Zig 项目的上游提交标准。
结语:守护开源社区的沟通根基
Zig 项目的这一禁令,反映了开源界对“信息不对称”可能瓦解社区传承的深层焦虑。当 AI 产出的速度远超人类理解代码的速度时,社区维护者更倾向于将精力投向那些愿意投入时间学习、能够通过沟通产生共鸣的真实开发者。这场“押注于人而非代码”的实践,实际上是在 AI 时代为人类开发者保留的一块强调逻辑理解与信任背书的阵地。
via AI新闻资讯 (author: AI Base)
在生成式 AI 席卷编程领域的当下,知名开源项目 Zig 近期采取了一项“逆流而上”的严格政策:全面禁止使用大语言模型(LLM)生成的代码或评论参与项目贡献。这一决策由知名开发者 Simon Willison 深度解读后,迅速在开源社区引发了关于技术效率与人才培养之间博弈的广泛讨论。
核心矛盾:代码产出与人才成长的取舍
Zig 项目维护者的立场核心在于对“贡献”定义的重新审视。他们认为,开源项目的终极价值并非单纯获取现成的代码片段,而是发掘并培养长期可信、具备成长潜力的贡献者。在该项目组看来,审查代码(Pull Request)的过程本质上是一场深度沟通,旨在帮助新人理解技术规范并建立互信。
然而,一旦开发者开始依赖 LLM 辅助,这种传统的导师制(Mentorship)机制便面临坍塌。维护者指出,AI 可以轻易生成表面逻辑通顺的代码,但这导致他们无法判断提交者是否真正掌握了背后的底层原理。如果一个合并请求主要由 AI 驱动,维护者将面临一个尴尬的逻辑悖论:与其耗费精力去审查人类操作 AI 生成的代码,不如直接由维护者运行自己的 AI 模块来解决问题。
行业案例:即便高度自动化也难获豁免
这一政策并非针对 AI 技术的偏见,而是基于对社区长期健康发展的审慎考量。高性能 JavaScript 运行时 Bun 的案例成为了该政策的有力佐证。尽管 Bun 团队内部重度使用 AI 辅助开发以追求极致效率,但由于其产出的代码无法证明出自“真实人类贡献者”的学习与理解过程,依然不符合 Zig 项目的上游提交标准。
结语:守护开源社区的沟通根基
Zig 项目的这一禁令,反映了开源界对“信息不对称”可能瓦解社区传承的深层焦虑。当 AI 产出的速度远超人类理解代码的速度时,社区维护者更倾向于将精力投向那些愿意投入时间学习、能够通过沟通产生共鸣的真实开发者。这场“押注于人而非代码”的实践,实际上是在 AI 时代为人类开发者保留的一块强调逻辑理解与信任背书的阵地。
via AI新闻资讯 (author: AI Base)
快手正式发布了其最新产品 KroWork,一款面向非技术用户的 AI 桌面智能体。KroWork 允许用户通过自然语言指令,自主完成各类办公任务,包括文件处理、浏览器自动化及应用生成。这意味着用户可以将日常重复的工作流程转化为本地桌面应用,避免再次付费使用。更重要的是,所有操作都在安全的沙箱环境中执行,确保用户数据不会上传至云端,从而保证隐私安全。
KroWork 的设计初衷是降低软件开发的门槛,让那些不熟悉编程的人也能轻松创建属于自己的桌面工具。用户只需告诉 KroWork 所需的功能,它便能够自动规划步骤,并将结果展示给用户。比如,财务人员可以指示 KroWork “制作发票报销汇总工具”,KroWork 便会生成一个本地应用,能够自动归类发票、校验金额并生成汇总报表。这样的功能极大地提升了工作效率,让用户可以更专注于其他重要事务。
KroWork 的核心优势在于其将重复性工作固化为应用的能力。与其他 AI 产品不同,KroWork 不仅仅是提供一次性的服务,而是将工作流程转化为可以反复使用的本地应用。这样一来,用户只需点击 “运行”,便能轻松完成任务,且无须消耗任何积分或 token。
此外,KroWork 的本地托管机制确保了用户的权限可控和数据安全。每次操作都在沙箱中进行,用户对 KroWork 的每一步执行均可进行监督和控制,保证了使用过程的透明度。
KroWork 同时集成了多个先进的 AI 模型,包括国内外的顶尖技术,使其能够快速高效地完成任务。无论是写报告、做分析,还是其他日常办公任务,KroWork 都能提供高质量的支持。用户的工作流被固定为自己的资产,告别重复付费的困扰。
划重点:
📌 快手推出 KroWork,AI 助手帮助用户将重复工作转化为本地应用。
💻 KroWork 能通过自然语言指令完成文件处理、浏览器自动化等任务,保障用户数据安全。
🔒 所有操作在沙箱中执行,用户对每一步都有控制权,确保透明性与安全性。
via AI新闻资讯 (author: AI Base)