https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
三星电子于周二短暂发布后又撤回了一项关于 Bixby 语音助手的重大更新公告。该更新确认三星已与 AI 搜索公司 Perplexity 达成合作,旨在提升 Bixby 的自然交互能力。通过集成 Perplexity 的模型,Bixby 将具备更强的设备控制功能与联网搜索能力,例如用户可通过语音指令让助手理解上下文并自动开启“查看时保持屏幕开启”等设置,或将其作为聊天机器人获取网页信息。
此次合作紧随苹果宣布 Siri 接入谷歌 Gemini 之后。尽管三星目前的 Galaxy AI 主要采用谷歌模型,但 Bixby 将通过此次更新引入 Perplexity 的技术支持。三星原计划在 One UI 8.5 测试版中开启相关功能测试,并预计于下月随 Galaxy S26 系列正式发布。由于官方随后撤回了公告,具体发布时间可能存在变动。
(PCMag.com)
via 茶馆 - Telegram Channel
多位行业分析师与爆料者近日披露,苹果公司计划在 2026 年推出的 iPhone 18 Pro 系列中保留灵动岛(Dynamic Island)设计,而非此前传闻的挖孔屏。分析师 Ross Young 证实,苹果拟将 Face ID 的红外泛光照射器移至屏幕左上方的屏下区域,而点阵投影器与前置摄像头仍保留在中央。这一调整将使灵动岛的体积显著缩小。
此前关于挖孔屏的报道疑似源于对组件迁移信息的误译。除设计变更外,该系列机型预计还将搭载可变光圈后置摄像头及更大容量的电池,并于 2026 年 9 月正式发布。
Digital Trends | MacRumors
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
中国AI公司DeepSeek新模型“MODEL1”曝光
21日,DeepSeek官方GitHub仓库更新了一系列FlashMLA代码,借助AI对全部总代码文件数:114个(包括.py, .md, .txt, .sh, .cpp, .cu, .h文件)进行分析,发现了一个此前未公开的模型架构标识 “MODEL1”,共被提及31次。MODEL1是DeepSeek FlashMLA中支持的两个主要模型架构之一,另一个是 DeepSeek -V3.2。据推测,MODEL1很可能是一个高效推理模型,相比V3.2,内存占用更低,适合边缘设备或成本敏感场景。它也可能是一个长序列专家,针对 16K+ 序列优化,适合文档理解、代码分析等长上下文任务。此前媒体爆料,DeepSeek将在今年2月中旬农历新年期间推出新一代旗舰AI模型——DeepSeek V4,将具备更强的写代码能力。
—— 科创板日报
via 风向旗参考快讯 - Telegram Channel
21日,DeepSeek官方GitHub仓库更新了一系列FlashMLA代码,借助AI对全部总代码文件数:114个(包括.py, .md, .txt, .sh, .cpp, .cu, .h文件)进行分析,发现了一个此前未公开的模型架构标识 “MODEL1”,共被提及31次。MODEL1是DeepSeek FlashMLA中支持的两个主要模型架构之一,另一个是 DeepSeek -V3.2。据推测,MODEL1很可能是一个高效推理模型,相比V3.2,内存占用更低,适合边缘设备或成本敏感场景。它也可能是一个长序列专家,针对 16K+ 序列优化,适合文档理解、代码分析等长上下文任务。此前媒体爆料,DeepSeek将在今年2月中旬农历新年期间推出新一代旗舰AI模型——DeepSeek V4,将具备更强的写代码能力。
—— 科创板日报
via 风向旗参考快讯 - Telegram Channel
1月21日,据彭博社报道,菲律宾周三表示,在埃隆·马斯克(Elon Musk)的AI公司xAI承诺移除可生成色情内容的功能后,该国将恢复对AI系统Grok的访问。上周,菲律宾封禁了Grok。此前,印尼和马来西亚也采取了类似措施,原因是对Grok可能生成的性化内容感到日益担忧。
Grok
菲律宾网络犯罪调查与协调中心称,在Grok被封禁后,Grok的开发商xAI主动联系了菲律宾政府。
“xAI已承诺针对本地市场对该工具进行修改,包括去除可用于生成深度伪造的图像/内容操纵功能,以及完全排除色情内容,尤其是涉及儿童性虐待的材料。”菲律宾网络犯罪调查与协调中心在官网发布的声明中称。
菲律宾网络犯罪调查与协调中心负责人雷纳托·帕莱索(Renato Paraiso)称,该机构将继续密切监测Grok,以确保其遵守菲律宾的法规。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
OpenAI 与思科携手,Codex 助力企业软件缺陷修复效率暴增15倍
OpenAI 宣布与全球网络巨头思科(Cisco)达成深度合作,利用其先进的编码 AI 模型 Codex,旨在提升企业软件的开发与维护效率。Codex 能够理解自然语言、生成新代码并修复旧代码漏洞,这使得它成为思科企业软件构建过程中的核心组成部分。
思科不仅将 Codex 视为一个独立的开发工具,更是将其深度嵌入到生产工程的工作流中,进而使其能够在大规模的多仓库系统中运行,并符合全球企业在安全和合规方面的要求。思科的工程领导团队成员 Ching Ho 表示,Codex 的最大亮点在于其 “智能体化(Agency)” 能力,这使得它不仅仅是代码补全的工具,更是企业级开发的得力助手。
在实践中,Codex 展现了强大的能力。它能够连接多个大型代码库,进行理解与推理,处理复杂的编程语言,并执行基于命令行的自主 “编译 - 测试 - 修复” 循环,完美接入现有的生产环境工作流。此外,Codex 还能在现有的审计、安全和治理框架内高效运行。
思科工程师通过对 Codex 的反馈,进一步优化了它在工作流编排、安全控制以及支持长期工程任务方面的表现。使用 Codex 后,思科团队在多个复杂任务中取得了显著成果。例如,通过 Codex 分析超过 15 个互联代码库的构建日志和依赖图,思科成功识别出低效环节,构建时间缩短了约 20%,每月节省了超过 1500 个工程小时。而在缺陷修复方面,思科利用 Codex-CLI 实现了大规模的自动化修复,将原本需要数周的人工工作缩短至几小时,缺陷处理吞吐量提升了 10 至 15 倍。
在框架迁移方面,当 Splunk 团队需要将用户界面从 React 18 迁移到 React 19 时,Codex 成功处理了大部分重复性更改,原本数周的工作压缩至数日,极大提升了工作效率。
思科与 OpenAI 的合作不仅仅是技术上的创新,更是未来 AI 辅助开发和运维的一个重要里程碑。双方将继续保持紧密合作,推动企业级 AI 原生工程任务的发展。
via AI新闻资讯 (author: AI Base)
OpenAI 宣布与全球网络巨头思科(Cisco)达成深度合作,利用其先进的编码 AI 模型 Codex,旨在提升企业软件的开发与维护效率。Codex 能够理解自然语言、生成新代码并修复旧代码漏洞,这使得它成为思科企业软件构建过程中的核心组成部分。
思科不仅将 Codex 视为一个独立的开发工具,更是将其深度嵌入到生产工程的工作流中,进而使其能够在大规模的多仓库系统中运行,并符合全球企业在安全和合规方面的要求。思科的工程领导团队成员 Ching Ho 表示,Codex 的最大亮点在于其 “智能体化(Agency)” 能力,这使得它不仅仅是代码补全的工具,更是企业级开发的得力助手。
在实践中,Codex 展现了强大的能力。它能够连接多个大型代码库,进行理解与推理,处理复杂的编程语言,并执行基于命令行的自主 “编译 - 测试 - 修复” 循环,完美接入现有的生产环境工作流。此外,Codex 还能在现有的审计、安全和治理框架内高效运行。
思科工程师通过对 Codex 的反馈,进一步优化了它在工作流编排、安全控制以及支持长期工程任务方面的表现。使用 Codex 后,思科团队在多个复杂任务中取得了显著成果。例如,通过 Codex 分析超过 15 个互联代码库的构建日志和依赖图,思科成功识别出低效环节,构建时间缩短了约 20%,每月节省了超过 1500 个工程小时。而在缺陷修复方面,思科利用 Codex-CLI 实现了大规模的自动化修复,将原本需要数周的人工工作缩短至几小时,缺陷处理吞吐量提升了 10 至 15 倍。
在框架迁移方面,当 Splunk 团队需要将用户界面从 React 18 迁移到 React 19 时,Codex 成功处理了大部分重复性更改,原本数周的工作压缩至数日,极大提升了工作效率。
思科与 OpenAI 的合作不仅仅是技术上的创新,更是未来 AI 辅助开发和运维的一个重要里程碑。双方将继续保持紧密合作,推动企业级 AI 原生工程任务的发展。
via AI新闻资讯 (author: AI Base)
班加罗尔语音 AI 初创公司 Bolna 获 630 万美元融资,发力多语种智能通话
随着企业对自动化客户互动需求的日益增长,来自印度班加罗尔的语音 AI 初创公司Bolna近日宣布成功获得 630 万美元的种子轮融资。本轮融资由知名风投机构 General Catalyst 领投,并吸引了 Y Combinator、Blume Ventures 等多家顶级投资机构及多位个人投资者的参与。
Bolna打造了一个高度集成的语音 AI 平台,旨在帮助企业通过单一系统实现多种语言和不同应用场景下的智能语音通话。该技术的核心优势在于其强大的“编排层”,不仅支持高频次的自动外呼,还能确保在通话量激增时保持服务性能的稳定性,特别适合电商、金融、物流及教育等对多语种互动有极高要求的行业。
自 2025 年 5 月正式商业化运营以来,Bolna的业务规模实现了爆发式增长,日处理通话量从最初的 1500 次飙升至超过 20 万次。目前,公司已拥有超过 1050 家付费企业客户,包括 Varun Beverages 等大型企业以及多家快速成长的初创公司。
据悉,Bolna计划利用这笔新资金扩充工程与部署团队,并进一步深耕本土化语音技术的研发,以提升方言通话的自然度。随着企业端业务的持续扩张,该公司目标在 2026 年 6 月实现 500 万美元的年度经常性收入(ARR)。
via AI新闻资讯 (author: AI Base)
随着企业对自动化客户互动需求的日益增长,来自印度班加罗尔的语音 AI 初创公司Bolna近日宣布成功获得 630 万美元的种子轮融资。本轮融资由知名风投机构 General Catalyst 领投,并吸引了 Y Combinator、Blume Ventures 等多家顶级投资机构及多位个人投资者的参与。
Bolna打造了一个高度集成的语音 AI 平台,旨在帮助企业通过单一系统实现多种语言和不同应用场景下的智能语音通话。该技术的核心优势在于其强大的“编排层”,不仅支持高频次的自动外呼,还能确保在通话量激增时保持服务性能的稳定性,特别适合电商、金融、物流及教育等对多语种互动有极高要求的行业。
自 2025 年 5 月正式商业化运营以来,Bolna的业务规模实现了爆发式增长,日处理通话量从最初的 1500 次飙升至超过 20 万次。目前,公司已拥有超过 1050 家付费企业客户,包括 Varun Beverages 等大型企业以及多家快速成长的初创公司。
据悉,Bolna计划利用这笔新资金扩充工程与部署团队,并进一步深耕本土化语音技术的研发,以提升方言通话的自然度。随着企业端业务的持续扩张,该公司目标在 2026 年 6 月实现 500 万美元的年度经常性收入(ARR)。
via AI新闻资讯 (author: AI Base)
近日,谷歌的搜索团队再次对 LLMs.txt 文件发声,澄清了关于其使用和官方立场的疑问。在社交平台 Bluesky 上,有用户询问谷歌的开发者文件中是否包含的 LLMs.txt 文件意味着谷歌对此的认可。对此,谷歌搜索团队的约翰・穆勒(John Mueller)给出了明确的回应:这并不是一种官方的认可。
事情的起因是几周前,谷歌所使用的内容管理系统(CMS)开始支持 LLMs.txt 文件,并将其添加到多个开发者文档中。然而,谷歌搜索团队在看到这一变化后迅速将其移除,只留下了其他团队可能未曾注意到的部分。这一文件的添加并不是出于谷歌的特别倡导,而是出于其他原因。
穆勒在 Bluesky 上的留言中表示,谷歌并不会使用这个 LLMs.txt 文件,甚至认为其可能是无用的,建议开发者如果使用,最好将其设置为不被索引。谷歌团队一直以来的立场是,LLMs.txt 文件并不被广泛使用,并且对于开发者而言,实际上可能没有什么实际价值。
尽管如此,穆勒指出,保持该文件的存在可能不会造成太大的负面影响,开发者们依然需要谨慎对待这个问题。谷歌的这一声明再次强调了他们对 LLMs.txt 文件的态度,显示出搜索团队在工具和技术选择上的明确立场。
可以看出,谷歌在人工智能和大型语言模型(LLMs)方面的探索仍在持续,但其对工具的选择却显得尤为谨慎。开发者们在使用新技术时,尤其是在内容管理和搜索优化领域,应该更加关注官方的指引与建议。
via AI新闻资讯 (author: AI Base)
电影《大空头》的原型人物迈克尔·伯里就人工智能 (AI) 泡沫发出严厉警告,预测该行业将出现系统性崩溃,即使美国政府干预也无法阻止。伯里在社交平台X上发表了一篇措辞严厉的帖子,将当前的AI投资狂潮描述为一种“狂热”,这种狂热从数学上讲注定会失败。
伯里因在2008年金融危机前做空房地产市场而闻名,他认为,全球最富有的企业所进行的巨额资本支出也无法为人工智能实现盈利争取足够的时间。
他明确警告说,尽管政府必然会“竭尽全力挽救AI泡沫,以拯救市场”,但根据同样的定义,这个金融漏洞“太大了,无法挽救”。
伯里持看跌观点的依据在于相关数据所反映出的 OpenAI不稳定的财务状况。
伯里分享了投资者乔治·诺布尔(George Noble)的一篇分析帖子,后者指出,OpenAI在一个季度内亏损了120亿美元。据德银估计,在该公司实现盈利之前,其累计负现金流将达到1430亿美元。
据报道,该公司每天在其视频模型Sora上的投入就高达1500万美元。
这些批评聚焦于该行业所面临的一个“重大数学难题”:收益递减现象。批评者认为,那些容易实现的目标已经不复存在,如今要仅仅将模型性能提高一倍,所需的能源和资金却是原来的五倍。
相关文章:
“大空头”伯里继续攻击英伟达和AI泡沫:真正的终端需求小得离谱
“大空头”伯里警告:OpenAI将是下一个网景 注定要失败
“大空头”伯里称无法把握或预测AI泡沫何时破裂:可能还有增长空间
“大空头”批评英伟达发展耗电芯片:美国若继续依赖将在AI竞争中输给中国
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
据《晚点 LatePost》报道,快手旗下 可灵 AI(Kling AI)在2026年初迎来爆发式增长。截至1月20日,其月活跃用户(MAU)已突破 1200万,App 端付费用户规模环比激增 350%。
这一成绩得益于产品能力的连续迭代。2025年底,可灵相继发布了多模态视频模型 O1及具备“音画同出”能力的2.6版本。进入1月,新推出的“动作控制”(Motion Control)功能成为增长引擎,用户通过简单的图片和动作参考即可生成精准控制的角色视频,引发了全球范围内的“宠物跳舞”视频病毒式传播。
2025年可灵全年收入预计达 1.4亿美元,远超最初6000万美元的目标。其2025年12月单月收入超过2000万美元,且1月日均收入环比再度提升30%。目前,近70% 的收入由专业订阅会员贡献,并在巴西、俄罗斯等40国下载榜夺冠。
快手高级副总裁盖坤指出,AI 规模化产生优质内容的“临界点”即将到来。可灵正通过深耕工具属性抢占市场,力求从视频生产工具向未来的内容平台跃迁。摩根大通评价称,可灵的超预期表现使其母公司快手成为全球最被低估的 AI 标的之一。
via AI新闻资讯 (author: AI Base)
OpenAI:将自行承担星际之门项目能源费用
OpenAI公司表示在所有 “星际之门”社区计划中,承诺自行承担能源费用,确保项目运营不会推高电价。每个社区和地区都有独特的能源需求及电网状况,OpenAI承诺将根据具体区域量身定制。根据项目地点的不同,具体措施包括:由项目全额出资建设新的专用供电及储能设施,或增设并支付新型能源发电与输电资源的费用。OpenAI称,在宣布“星际之门”项目一年后,计划到2029年将美国的人工智能基础设施扩展到10吉瓦。已经在规划容量方面远超目标的一半,得克萨斯州第一批站点已经开始训练和提供服务,同时得克萨斯州、新墨西哥州、威斯康星州和密歇根州还有多个“星际之门”站点正在开发中。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
OpenAI公司表示在所有 “星际之门”社区计划中,承诺自行承担能源费用,确保项目运营不会推高电价。每个社区和地区都有独特的能源需求及电网状况,OpenAI承诺将根据具体区域量身定制。根据项目地点的不同,具体措施包括:由项目全额出资建设新的专用供电及储能设施,或增设并支付新型能源发电与输电资源的费用。OpenAI称,在宣布“星际之门”项目一年后,计划到2029年将美国的人工智能基础设施扩展到10吉瓦。已经在规划容量方面远超目标的一半,得克萨斯州第一批站点已经开始训练和提供服务,同时得克萨斯州、新墨西哥州、威斯康星州和密歇根州还有多个“星际之门”站点正在开发中。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
近日,Liquid AI 正式推出了其 Liquid 基础模型系列的新成员——LFM2.5-1.2B-Thinking。这款拥有12亿参数的推理模型在端侧设备部署上取得了显著突破。令人印象深刻的是,该模型在现代手机上的运行占用仅约900MB,这意味着两年前还需要数据中心支撑的推理能力,现在已能完全离线运行在个人移动设备上。
与侧重于日常对话的通用模型不同,LFM2.5-1.2B-Thinking专为复杂的逻辑推理、数学运算及工具调用而设计。它在生成最终答案前会先产生内部的“思考痕迹”(thinking traces),这类似于人类的解题过程,能够有效规划步骤并验证中间结果,极大地提升了处理多步骤指令的准确性。
在实际性能表现上,该模型展现了极高的效率。它在 AMD CPU 上的解码速度可达每秒239个字符,而在移动 NPU 上的运行速度也达到了每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练技术,研发团队成功将推理模型中常见的“循环死机”率从15.74% 降低至0.36%,确保了端侧用户体验的流畅与稳定。
via AI新闻资讯 (author: AI Base)