https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
近日科技媒体 Appleinsider,苹果发表了一篇磅研究论文,介绍了最新研发的多模态 AI 模型 “zano”。这一模型将 “视觉” 和 “文本生成图像” 这两项功能有机结合,标志 AI 技术的又一次重大突破。
“Manzano” 的核心创新在于其 “双修” 能力:它不仅能够像人类一样精准地图像内容能根据文本生成高质量的图片。这技术的前无疑是令人振奋的在行业内,能同时满足两项需求的模型并多见,而现有模型往在画质理解能力之间存在妥协。
为了克服这一难题,Manzano 采用了的三段式架构。首先引入了一种 “混合器”,能同时生成连续和离散的视觉表示接着,强大的大语言模型(LLM)对像的义内容进行预测,通过 “扩散解码器” 进行像素级一设计使得 Manzano 在和图方面都表现出,甚至能够处理一些复杂任务,比如深估计、风格移和图像修复。
数据显示,Manzano 在对反直觉和违物理常识的复杂指令时,表现非常出色。例如,当生成 “一只鸟在大下方飞翔” 的画面时,Manzano 的逻辑准确性与 OpenAI 的 GPT4o 和谷歌 Nano Banana 模型不相上下。研究团队还测试了不同参数版本的模型,结果表明,随着模型规模的扩大,其性能提升依然显著。
尽管目前 zano 仍处于研究尚被直接应用于 iPhone 或 Mac 设备,但这无疑显示出苹果在构建更强大的底层方面的雄心。未来,业内普遍认为 Manzano 技术很可能会融入苹果即将推出的 “图乐园 Image Playground” 功能,为用户提供更智能的修图体验和更想象力画面生成能力,从而进一步巩固苹果在端 AI 领域的竞争力。
via AI新闻资讯 (author: AI Base)
OpenAI与Cerebras达成百亿美元算力合作
OpenAI与Cerebras Systems签署了一项多年期协议,将使用后者的硬件获取相当于 750 兆瓦的算力,以支持其快速扩张的人工智能基础设施。根据OpenAI周三发布的声明,该公司将把Cerebras纳入其计算网络,以实现更快的响应速度。知情人士表示,这笔交易规模超过100亿美元。OpenAI联合创始人兼总裁格雷格·布罗克曼称,速度提升将有助于解锁“下一代应用场景,并让接下来的十亿用户接入人工智能”。Cerebras公司采用超大规模芯片处理信息,走出了一条不同于主流路线的技术路径。该公司正寻求其技术的广泛应用,以挑战市场领导者英伟达。
—— 金十数据、路透社
via 风向旗参考快讯 - Telegram Channel
OpenAI与Cerebras Systems签署了一项多年期协议,将使用后者的硬件获取相当于 750 兆瓦的算力,以支持其快速扩张的人工智能基础设施。根据OpenAI周三发布的声明,该公司将把Cerebras纳入其计算网络,以实现更快的响应速度。知情人士表示,这笔交易规模超过100亿美元。OpenAI联合创始人兼总裁格雷格·布罗克曼称,速度提升将有助于解锁“下一代应用场景,并让接下来的十亿用户接入人工智能”。Cerebras公司采用超大规模芯片处理信息,走出了一条不同于主流路线的技术路径。该公司正寻求其技术的广泛应用,以挑战市场领导者英伟达。
—— 金十数据、路透社
via 风向旗参考快讯 - Telegram Channel
美国参议院通过了《DEFIANCE法案》,允许非自愿性深度伪造图像的受害者起诉创作者及分发者,并可追讨最高25万美元的赔偿金。该法案由参议员迪克·德宾发起,旨在针对故意制作和传播非自愿裸体影像的行为提起民事诉讼。该法案的早期版本曾于2024年获参议院通过,但在众议院搁置,目前新版本已再次移交众议院。此举背景包括社交平台X的Grok机器人因生成他人比基尼图像面临监管压力。此外,去年签署的《Take It Down法案》已要求社交平台在收到通知后48小时内删除此类素材。
(PCMag.com)
via 茶馆 - Telegram Channel
据《华尔街日报》报道,OpenAI 已与芯片初创公司 Cerebras 达成协议,将在未来三年内向其购买高达 750 兆瓦的计算能力。该笔交易总价值预计超过 100 亿美元。
(路透社)
via 茶馆 - Telegram Channel
OpenAI partners with Cerebras
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News
[API (us-east-1.api.x.ai)] Models unavailable
Status: ACTIVE
Severity: outage
----------------------
Updates:
Wed, 14 Jan 2026 18:53:15 GMT
We are currently investigating the issue
The models grok-4-1-fast-non-reasoning and grok-4-1-fast-reasoning are currently unavailable. We are investigating the issue and will post another update in 10 minutes.
via xAI System Status
Status: ACTIVE
Severity: outage
----------------------
Updates:
Wed, 14 Jan 2026 18:53:15 GMT
We are currently investigating the issue
The models grok-4-1-fast-non-reasoning and grok-4-1-fast-reasoning are currently unavailable. We are investigating the issue and will post another update in 10 minutes.
via xAI System Status
Google推出Gemini“个人智能”功能 深度整合Gmail、搜索和YouTube记录
Google正在为其 Gemini 人工智能聊天机器人加入一项重要升级:用户可以选择将 Gmail、Google Photos、Google 搜索以及 YouTube 观看记录与 Gemini 连接,从而获得更加个性化的回答,这一新能力被Google称为“Personal Intelligence(个人智能)”。
iframe (storage.googleapis.com)
过去,当 Gemini 还叫 Bard 时,Google已经允许它连接部分Google应用和服务,从用户账户中提取信息;Gemini 目前也能够在一定程度上记住并调用过往对话内容。不过,这次的“个人智能”功能在此基础上更进一步,不仅能从这些服务中调取信息,还能在不同数据源之间进行综合推理,而不需要用户每次都明确指定要从哪个应用中抓取资料。Google表示,该功能由最新的 Gemini 3 系列大模型提供支持,旨在让 Gemini 在理解用户上下文和个人习惯方面更贴近“私人助手”的角色。
Google举的示例是,某位员工两周前在给 2019 款本田小型面包车更换轮胎时,排队期间突然发现自己并不清楚轮胎规格,于是向 Gemini 提问。一般的聊天机器人可以根据车型信息查询出标准轮胎参数,但 Gemini 的做法更深入:它在回答规格之外,还给出适合日常通勤和适合全气候路况的不同轮胎选项,并引用了用户在 Google 相册中关于全家自驾前往俄克拉何马州旅行的照片记录,推断出该家庭有长途旅行和多种天气条件下用车的需求。
这一设计体现了Google对“个人智能”的定位:不仅是调用用户数据,而是跨邮件、照片和搜索记录进行综合理解,进而生成更贴合个人生活场景的建议或答案。不过,启用该功能需要用户主动选择加入,Google强调这是一个可选项,用户在未开启前,Gemini 不会自动访问这类数据。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Google正在为其 Gemini 人工智能聊天机器人加入一项重要升级:用户可以选择将 Gmail、Google Photos、Google 搜索以及 YouTube 观看记录与 Gemini 连接,从而获得更加个性化的回答,这一新能力被Google称为“Personal Intelligence(个人智能)”。
iframe (storage.googleapis.com)
过去,当 Gemini 还叫 Bard 时,Google已经允许它连接部分Google应用和服务,从用户账户中提取信息;Gemini 目前也能够在一定程度上记住并调用过往对话内容。不过,这次的“个人智能”功能在此基础上更进一步,不仅能从这些服务中调取信息,还能在不同数据源之间进行综合推理,而不需要用户每次都明确指定要从哪个应用中抓取资料。Google表示,该功能由最新的 Gemini 3 系列大模型提供支持,旨在让 Gemini 在理解用户上下文和个人习惯方面更贴近“私人助手”的角色。
Google举的示例是,某位员工两周前在给 2019 款本田小型面包车更换轮胎时,排队期间突然发现自己并不清楚轮胎规格,于是向 Gemini 提问。一般的聊天机器人可以根据车型信息查询出标准轮胎参数,但 Gemini 的做法更深入:它在回答规格之外,还给出适合日常通勤和适合全气候路况的不同轮胎选项,并引用了用户在 Google 相册中关于全家自驾前往俄克拉何马州旅行的照片记录,推断出该家庭有长途旅行和多种天气条件下用车的需求。
这一设计体现了Google对“个人智能”的定位:不仅是调用用户数据,而是跨邮件、照片和搜索记录进行综合理解,进而生成更贴合个人生活场景的建议或答案。不过,启用该功能需要用户主动选择加入,Google强调这是一个可选项,用户在未开启前,Gemini 不会自动访问这类数据。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Increased errors for Auto model
Jan 14, 15:34 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
Jan 14, 15:34 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
💰 微软对 Anthropic AI 的支出预计将达 5 亿美元
据《The Information》报道,微软在人工智能初创公司 Anthropic 上的支出规模正在增长,预计将达到 5 亿美元。该数据反映了微软在相关 AI 领域投入的资金水平。
(财经快讯)
via 茶馆 - Telegram Channel
据《The Information》报道,微软在人工智能初创公司 Anthropic 上的支出规模正在增长,预计将达到 5 亿美元。该数据反映了微软在相关 AI 领域投入的资金水平。
(财经快讯)
via 茶馆 - Telegram Channel
英国首相基尔·斯塔默(Keir Starmer)1月14日向议会表示,埃隆·马斯克旗下的社交平台X正采取行动,以确保完全符合英国法律。此前,英国媒体监管机构Ofcom于周一对X展开调查,指控其Grok AI聊天机器人生成的性暗示深度伪造图像违反了保护公民免受非法内容侵害的职责。斯塔默强调,政府将在必要时采取进一步措施。与此同时,英国技术大臣利兹·肯德尔(Liz Kendall)宣布,一项将制作性深度伪造图像定为刑事犯罪的新法律将于本周生效。X平台此前曾表示已限制付费用户发起此类图像请求,目前尚未对此次合规表态作出直接回应。
(路透社)
via 茶馆 - Telegram Channel
OpenAI正开发一款对标AirPods的AI设备
博主@智慧皮卡丘爆料称,OpenAI正在打造旨在取代 AirPods 的特殊音频产品,内部代号为Sweetpea,预计将与今年9月发布,第一年的产量在 4000万至 5000万台。富士康已经被告知提前准备,在2028年第四季度前生产总共五款设备,包括耳机和触控笔,但Sweetpea是优先生产的产品。已知其硬件设计独一无二,前所未见。设备主体将采用金属材质,外形似鹅卵石,打开后有两个胶囊状设备,可以取出佩戴在用户耳后。这款产品预计将使用2nm手机芯片,Exynos芯片是首选,还有一款定制芯片也已开发完成。且由于该设备使用的材料及组件与智能手机颇为接近,预计这款设备的成本将相当高。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
博主@智慧皮卡丘爆料称,OpenAI正在打造旨在取代 AirPods 的特殊音频产品,内部代号为Sweetpea,预计将与今年9月发布,第一年的产量在 4000万至 5000万台。富士康已经被告知提前准备,在2028年第四季度前生产总共五款设备,包括耳机和触控笔,但Sweetpea是优先生产的产品。已知其硬件设计独一无二,前所未见。设备主体将采用金属材质,外形似鹅卵石,打开后有两个胶囊状设备,可以取出佩戴在用户耳后。这款产品预计将使用2nm手机芯片,Exynos芯片是首选,还有一款定制芯片也已开发完成。且由于该设备使用的材料及组件与智能手机颇为接近,预计这款设备的成本将相当高。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
🇰🇷 韩国“主权AI”竞赛陷入开源引用争议
韩国政府于2025年6月启动为期三年的研发竞赛,目标是在2027年前开发出性能达到OpenAI与谷歌95%水平的本土基础模型,以摆脱对美中技术巨头的依赖。然而,该赛事近期因入围者引用外国开源组件引发争议。在5家入围机构中,有3家被发现在推理部署代码或视觉、音频编码器中使用了中国智谱、DeepSeek以及与阿里、OpenAI相关的开源技术。其中,Upstage公司因代码残留版权标记遭到质疑,随后该公司通过展示训练日志证明其模型为“从零开始”训练,指控方已对此公开道歉。
(科技圈)
via 茶馆 - Telegram Channel
韩国政府于2025年6月启动为期三年的研发竞赛,目标是在2027年前开发出性能达到OpenAI与谷歌95%水平的本土基础模型,以摆脱对美中技术巨头的依赖。然而,该赛事近期因入围者引用外国开源组件引发争议。在5家入围机构中,有3家被发现在推理部署代码或视觉、音频编码器中使用了中国智谱、DeepSeek以及与阿里、OpenAI相关的开源技术。其中,Upstage公司因代码残留版权标记遭到质疑,随后该公司通过展示训练日志证明其模型为“从零开始”训练,指控方已对此公开道歉。
(科技圈)
via 茶馆 - Telegram Channel
“主权AI”撞上开源现实:韩国本土大模型大赛因“用了中国代码”掀起争议
韩国政府在 2025 年 6 月启动三年竞赛,要做出能在 2027 年对标 OpenAI/谷歌、性能达 95% 水平的“韩国自研基础模型”,以摆脱对美中技术巨头的依赖。
但 5 家入围者里有 3 家被发现在推理/部署代码或视觉、音频编码器等模块上引用了外国开源组件(包括中国智谱、DeepSeek,以及被指与阿里/OpenAI相关的编码器),其中 Upstage 还因代码里残留版权标记引发舆论,随后通过直播日志证明训练“从零开始”,指控方道歉。
华尔街日报
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
韩国政府在 2025 年 6 月启动三年竞赛,要做出能在 2027 年对标 OpenAI/谷歌、性能达 95% 水平的“韩国自研基础模型”,以摆脱对美中技术巨头的依赖。
但 5 家入围者里有 3 家被发现在推理/部署代码或视觉、音频编码器等模块上引用了外国开源组件(包括中国智谱、DeepSeek,以及被指与阿里/OpenAI相关的编码器),其中 Upstage 还因代码里残留版权标记引发舆论,随后通过直播日志证明训练“从零开始”,指控方道歉。
华尔街日报
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel