https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
阿里巴巴今日将召开千问App发布会 ,或将推出AI闪购,整合地图、外卖、购物、健康
今天10:00,阿里巴巴将正式举行千问App发布会,全面展示通义大模型如何深度融入日常生活的“毛细血管”。这款全新应用不再局限于问答或创作,而是定位为覆盖全场景的智能决策助手,旨在通过AI重构用户在出行、餐饮、购物、健康等高频事务中的决策方式。
事实上,千问App的能力建设早已悄然启动。早在 2025 年 12 月 18 日,该应用便已完成与高德地图的深度集成,可基于实时位置、交通、商户信息,即时生成包含推荐与行动指令的决策卡片——例如“附近 3 家评分4. 8 以上的川菜馆,步行 5 分钟可达,已为你预估等位时间”,并支持一键导航或订座。
在电商领域,淘宝闪购已成为千问App的重要能力出口。依托阿里云与通义大模型,系统能智能匹配用户需求与商品供给,实现“所想即所得”的精准推荐。更重要的是,AI不仅优化选品,还联动履约体系,显著提升配送速度与准确性,让“即时零售”真正实现“又快又准”。
据透露,千问App将打通阿里生态内高德、饿了么、淘宝、天猫、阿里健康等核心服务,构建一个以用户为中心的“生活操作系统”。你只需说出“周末带孩子去哪玩,要人少、有室内游乐场、还能吃亲子餐”,AI便能综合天气、人流、商户标签与历史偏好,输出完整方案并支持一键执行。
在AI从“炫技”转向“实用”的 2026 年,千问App的发布标志着大模型竞争进入“场景深耕”新阶段。当AI不再只是工具,而成为你生活的“首席参谋”,真正的智能生活,或许就从明天上午 10 点开始。
via AI新闻资讯 (author: AI Base)
今天10:00,阿里巴巴将正式举行千问App发布会,全面展示通义大模型如何深度融入日常生活的“毛细血管”。这款全新应用不再局限于问答或创作,而是定位为覆盖全场景的智能决策助手,旨在通过AI重构用户在出行、餐饮、购物、健康等高频事务中的决策方式。
事实上,千问App的能力建设早已悄然启动。早在 2025 年 12 月 18 日,该应用便已完成与高德地图的深度集成,可基于实时位置、交通、商户信息,即时生成包含推荐与行动指令的决策卡片——例如“附近 3 家评分4. 8 以上的川菜馆,步行 5 分钟可达,已为你预估等位时间”,并支持一键导航或订座。
在电商领域,淘宝闪购已成为千问App的重要能力出口。依托阿里云与通义大模型,系统能智能匹配用户需求与商品供给,实现“所想即所得”的精准推荐。更重要的是,AI不仅优化选品,还联动履约体系,显著提升配送速度与准确性,让“即时零售”真正实现“又快又准”。
据透露,千问App将打通阿里生态内高德、饿了么、淘宝、天猫、阿里健康等核心服务,构建一个以用户为中心的“生活操作系统”。你只需说出“周末带孩子去哪玩,要人少、有室内游乐场、还能吃亲子餐”,AI便能综合天气、人流、商户标签与历史偏好,输出完整方案并支持一键执行。
在AI从“炫技”转向“实用”的 2026 年,千问App的发布标志着大模型竞争进入“场景深耕”新阶段。当AI不再只是工具,而成为你生活的“首席参谋”,真正的智能生活,或许就从明天上午 10 点开始。
via AI新闻资讯 (author: AI Base)
谷歌于周三宣布,对其核心研究工具“趋势探索”(Google Trends)进行全面改版。此次更新的核心在于引入了 Gemini 人工智能技术,旨在通过自动化识别与深度关联分析,彻底改变用户探索热门话题的方式。该更新即日起在桌面端陆续推向全球。
Gemini 赋能:从“手动搜索”到“智能洞察”
长期以来,“趋势探索”一直是记者、创作者及研究人员分析搜索热度的必备工具。全新的 Gemini 体验显著减少了用户在挖掘相关信息时的手动操作:
● 智能侧边栏:新页面新增了侧边栏功能,能够根据用户的初始搜索词,自动识别并对比相关联的趋势。
● AI 引导探索:系统提供了一系列由 Gemini 生成的提示词(Prompts)列表,引导用户进行更深层的数据挖掘,发现可能被忽略的潜在关联。
设计优化:多维度对比与可视化升级
为了提升数据的可读性,谷歌对 UI 进行了针对性优化:
● 色彩映射系统:每个搜索词现在都配有专属的图标与颜色,与趋势图表中的线条精准对应,令数据对比一目了然。
● 容量翻倍:谷歌大幅提升了可对比的搜索词数量。以“犬种”搜索为例,AI 可自动在图表中填充多达 8个相关搜索词(如金毛、比格犬等),并将时间轴上显示的搜索量上升词条数量翻了一番。
● 智能推荐:系统会基于当前搜索推荐更具分类意义的主题,如“低过敏性犬种”或“大型犬种”,用户可通过悬停编辑或利用国家、时间、属性等筛选条件进行高度定制。
此次“趋势探索”的改版,是谷歌将 Gemini 技术全线融入其核心产品的又一重要举措。此前,谷歌已成功在搜索、Gmail、地图和文档中部署了 AI 功能,进一步巩固其在 AI 应用领域的生态护城河。
via AI新闻资讯 (author: AI Base)
估值翻倍!印度初创公司 Emversity 融资3000万美元,深耕 AI 无法替代的蓝领市场
在人工智能席卷全球劳动力市场的浪潮中,一家名为Emversity的印度职业培训初创公司却另辟蹊径,专注于培养 AI 难以替代的实干型人才。根据Yahoo Finance今日报道,该公司已完成3000万美元的 A 轮融资。本轮融资由 Premji Invest 领投,Lightspeed Venture Partners 等知名机构跟投,使公司估值达到1.2亿美元,较去年4月翻了一番。
目前,印度正面临严峻的技能缺口问题,许多毕业生空有学位却缺乏实操技能。Emversity 的核心策略是填补医疗保健和酒店管理等关键服务领域的“灰领”岗位空缺。这些职位,如护士、物理治疗师、医学实验室技术人员及客房服务等,极度依赖人际沟通、动手操作和持证上岗,被认为是 AI 自动化浪潮中的“安全区”。
Emversity的运营模式极具特色:它不仅在40多个校区与23所大学合作,将雇主设计的培训课程融入学历教育,还运营着政府附属的技能中心,提供短期认证与就业安置服务。创始人 Vivek Sinha 曾任印度教育科技巨头 Unacademy 的首席运营官,他敏锐地察觉到,即使是拥有 MBA 甚至博士学位的求职者,在面对需要现场实操的刚需岗位时也往往缺乏竞争力。
AIbase 认为,Emversity的成功不仅在于资本的青睐,更在于其对“自动化避风港”的精准定位。在技术更迭飞快的今天,通过强化线下实操训练和打通校企合作渠道,该公司正在为全球人口最多的市场建立一条稳健的蓝领人才供应链。
via AI新闻资讯 (author: AI Base)
在人工智能席卷全球劳动力市场的浪潮中,一家名为Emversity的印度职业培训初创公司却另辟蹊径,专注于培养 AI 难以替代的实干型人才。根据Yahoo Finance今日报道,该公司已完成3000万美元的 A 轮融资。本轮融资由 Premji Invest 领投,Lightspeed Venture Partners 等知名机构跟投,使公司估值达到1.2亿美元,较去年4月翻了一番。
目前,印度正面临严峻的技能缺口问题,许多毕业生空有学位却缺乏实操技能。Emversity 的核心策略是填补医疗保健和酒店管理等关键服务领域的“灰领”岗位空缺。这些职位,如护士、物理治疗师、医学实验室技术人员及客房服务等,极度依赖人际沟通、动手操作和持证上岗,被认为是 AI 自动化浪潮中的“安全区”。
Emversity的运营模式极具特色:它不仅在40多个校区与23所大学合作,将雇主设计的培训课程融入学历教育,还运营着政府附属的技能中心,提供短期认证与就业安置服务。创始人 Vivek Sinha 曾任印度教育科技巨头 Unacademy 的首席运营官,他敏锐地察觉到,即使是拥有 MBA 甚至博士学位的求职者,在面对需要现场实操的刚需岗位时也往往缺乏竞争力。
AIbase 认为,Emversity的成功不仅在于资本的青睐,更在于其对“自动化避风港”的精准定位。在技术更迭飞快的今天,通过强化线下实操训练和打通校企合作渠道,该公司正在为全球人口最多的市场建立一条稳健的蓝领人才供应链。
划重点:
💰 估值暴涨: Emversity近期完成3000万美元融资,投后估值达到1.2亿美元,是2025年4月时的两倍。
🛡️ AI 防护网: 专注于培训 AI 难以取代的“灰领”岗位,如医疗护理和酒店服务,这些行业对实操经验和人员配比有严格要求。
🎓 校企联动: 已与23所大学合作,将实操培训嵌入正规课程,目前已培训4500名学员并成功安置800人就业。
via AI新闻资讯 (author: AI Base)
巨头联手布局:微软拟向 Anthropic 豪掷5亿美元,Azure 销售全线“加码”
微软正在悄然重塑其人工智能版图。据知情人士透露,微软已成为 AI 初创巨头Anthropic的顶级客户,近期每年的技术采购开支有望达到近5亿美元。这笔资金将主要用于采购 Anthropic 的先进技术,以支持微软旗下各类产品的智能化升级。
为了在云服务市场占据更高地盘,微软近期对内部销售考核指标进行了重大调整。Azure 云业务部门的销售人员收到通知,推广Anthropic的人工智能模型将与销售微软自研软件享有同等的业绩权重。这种激励力度通常仅保留给自研产品或深度绑定的合作伙伴,此举显著提升了销售团队推广 Anthropic 产品的积极性,使其与OpenAI处于同等竞争地位。
微软此举被视为一种精明的“风险分散”策略。虽然微软已向 OpenAI 投资超过130亿美元,但通过深化与 Anthropic 的合作,微软可以避免过度依赖单一技术供应商。更重要的是,Anthropic 模型在代码生成及复杂逻辑任务上的出色表现,能为Azure吸引更多追求多元化 AI 能力的企业客户,从而在与谷歌、亚马逊的竞争中抢占先机。
目前,微软与 Anthropic 的销售团队已展开紧密合作。这种“巨头+新贵”的组合,不仅为企业客户提供了更高安全性的云端 AI 方案,也预示着微软正加速将最前沿的自动化技术整合进其生态系统。
via AI新闻资讯 (author: AI Base)
微软正在悄然重塑其人工智能版图。据知情人士透露,微软已成为 AI 初创巨头Anthropic的顶级客户,近期每年的技术采购开支有望达到近5亿美元。这笔资金将主要用于采购 Anthropic 的先进技术,以支持微软旗下各类产品的智能化升级。
为了在云服务市场占据更高地盘,微软近期对内部销售考核指标进行了重大调整。Azure 云业务部门的销售人员收到通知,推广Anthropic的人工智能模型将与销售微软自研软件享有同等的业绩权重。这种激励力度通常仅保留给自研产品或深度绑定的合作伙伴,此举显著提升了销售团队推广 Anthropic 产品的积极性,使其与OpenAI处于同等竞争地位。
微软此举被视为一种精明的“风险分散”策略。虽然微软已向 OpenAI 投资超过130亿美元,但通过深化与 Anthropic 的合作,微软可以避免过度依赖单一技术供应商。更重要的是,Anthropic 模型在代码生成及复杂逻辑任务上的出色表现,能为Azure吸引更多追求多元化 AI 能力的企业客户,从而在与谷歌、亚马逊的竞争中抢占先机。
目前,微软与 Anthropic 的销售团队已展开紧密合作。这种“巨头+新贵”的组合,不仅为企业客户提供了更高安全性的云端 AI 方案,也预示着微软正加速将最前沿的自动化技术整合进其生态系统。
划重点:
💰 重金投入: 微软对Anthropic的年度技术采购开支预计达5亿美元,并已于去年9月承诺注资至多50亿美元。
📈 销售激励: 微软罕见地将第三方模型Anthropic纳入销售人员的核心业绩考核,激励力度向OpenAI看齐。
🛡️ 战略平衡: 通过引入Anthropic互补,微软旨在分散技术风险,并利用其在代码生成领域的优势增强Azure云服务的市场竞争力。
via AI新闻资讯 (author: AI Base)
美国总统特朗普于周三宣布,对英伟达(Nvidia)和超威半导体(AMD)销往中国的AI处理器征收25%的关税。此举旨在落实白宫此前与科技巨头达成的交易,即通过抽取销售额25%的分成,换取政府允许其向中国出口曾被禁止的先进硬件。根据白宫简报,该关税适用于英伟达H200和AMD MI325X等先进口至美国再转运至全球的芯片,但用于美国国内AI基础设施建设的芯片可获豁免。英伟达对此政策表示欢迎,并已承诺未来四年在美投入5000亿美元用于本土制造。特朗普同时警告,随着国家安全调查的深入,未来可能对半导体及其衍生产品征收更广泛的关税。
关键矿产安全调查
白宫同日公布了针对关键矿产的调查结果,认定美国在稀土、镓、锗等金属上对外部供应的依赖已构成国家安全威胁。特朗普指示商务部长卢特尼克与贸易伙伴进行谈判,寻求建立包括价格下限在内的贸易限制措施。尽管目前尚未对这些材料直接加征关税,但白宫强调,若在180天内未能达成相关协议,总统可能会采取进一步的干预行动。
(FT)
via 茶馆 - Telegram Channel
初创实验室 Thinking Machines 突遭变故:两位核心创始人重返 OpenAI
人才争夺战在硅谷 AI 圈再次升级。据WIRED消息,刚刚成立不久的 AI 实验室 Thinking Machines Lab 遭遇重创,其两位核心联合创始人 Barret Zoph 和 Luke Metz 已确认离开公司,并将重新加入他们的“老东家”OpenAI。
OpenAI 应用业务首席执行官 Fidji Simo 在周四下午的一份内部备忘录中向员工宣布了这一消息。Barret Zoph 曾是 OpenAI 后验对齐(Post-training)团队的重要负责人,负责过包括ChatGPT在内的多个核心项目的研发与优化;而 Luke Metz 同样是深度学习领域的顶尖专家。
两人此前离开 OpenAI 并参与创立 Thinking Machines Lab,曾被视为新兴实验室挑战巨头地位的标志性事件。然而,此次“闪电回归”引发了业内对于初创 AI 实验室生存现状的讨论。目前,关于两人回归的具体原因,外界流传着两种截然不同的说法:一种观点认为初创公司在算力与资源上难以支撑其技术愿景,另一种则指向了 OpenAI 内部重组后对核心人才的强力回流策略。
对于初露头角的 Thinking Machines Lab 而言,失去这两位核心灵魂人物无疑是一次沉重的打击。而对于正在全力推进GPT-5或后续大型推理模型开发的OpenAI来说,顶级人才的归位将进一步巩固其在生成式 AI 领域的领先优势。
via AI新闻资讯 (author: AI Base)
人才争夺战在硅谷 AI 圈再次升级。据WIRED消息,刚刚成立不久的 AI 实验室 Thinking Machines Lab 遭遇重创,其两位核心联合创始人 Barret Zoph 和 Luke Metz 已确认离开公司,并将重新加入他们的“老东家”OpenAI。
OpenAI 应用业务首席执行官 Fidji Simo 在周四下午的一份内部备忘录中向员工宣布了这一消息。Barret Zoph 曾是 OpenAI 后验对齐(Post-training)团队的重要负责人,负责过包括ChatGPT在内的多个核心项目的研发与优化;而 Luke Metz 同样是深度学习领域的顶尖专家。
两人此前离开 OpenAI 并参与创立 Thinking Machines Lab,曾被视为新兴实验室挑战巨头地位的标志性事件。然而,此次“闪电回归”引发了业内对于初创 AI 实验室生存现状的讨论。目前,关于两人回归的具体原因,外界流传着两种截然不同的说法:一种观点认为初创公司在算力与资源上难以支撑其技术愿景,另一种则指向了 OpenAI 内部重组后对核心人才的强力回流策略。
对于初露头角的 Thinking Machines Lab 而言,失去这两位核心灵魂人物无疑是一次沉重的打击。而对于正在全力推进GPT-5或后续大型推理模型开发的OpenAI来说,顶级人才的归位将进一步巩固其在生成式 AI 领域的领先优势。
划重点:
🔄 重磅回归: 曾负责 ChatGPT 核心研发的 Barret Zoph 与资深专家 Luke Metz 宣布离开初创公司,重返OpenAI效力。
📉 初创受挫: Thinking Machines Lab 成立不久即失去两位关键联合创始人,这反映了小型AI 实验室在资源和人才留存上面临的严峻挑战。
📢 官方确认: 此消息已由 OpenAI 高管通过内部邮件证实,预示着 OpenAI 正在加紧整合核心技术力量以应对更激烈的行业竞争。
via AI新闻资讯 (author: AI Base)
字节跳动加速硬件布局:豆包AI耳机由歌尔代工,AI眼镜量产10万台,手机助手样机售罄
最新消息显示,公司正在开发新一代豆包AI耳机,已确定由声学与智能穿戴巨头歌尔股份代工生产,后者为此专门组建了项目团队,全力推进产品落地。尽管市场高度关注,字节跳动目前暂无明确上市计划,显示出其对产品成熟度与用户体验的谨慎态度。
与此同时,豆包AI硬件生态已初见雏形。其第一代AI眼镜计划量产约 10 万台,主要面向深度科技用户与开发者群体进行小规模投放,以收集真实场景反馈。第二代产品已在紧锣密鼓研发中,有望在交互体验与续航能力上实现显著升级。值得注意的是,供应链确认,该眼镜采用高通AR1 专用芯片,而非此前传闻的恒玄 2800 方案,凸显字节对高性能AI算力与能效平衡的重视。
在移动端,豆包团队亦取得突破性进展。其发布的 “豆包手机助手技术预览版” 已成功集成至努比亚M153 工程样机,首批设备迅速售罄,反映出开发者与极客用户对端侧AI能力的强烈需求。该助手可实现本地化语义理解、跨应用任务调度与个性化服务推荐,被视为字节打造“设备级AI代理”的关键一步。
从眼镜到耳机再到手机助手,字节跳动正通过多终端协同,构建以豆包大模型为核心的全场景AI入口战略。虽暂不急于大规模商用,但其在供应链整合、芯片选型与用户测试上的密集动作,清晰传递出一个信号:字节跳动正为下一代人机交互时代,做一场深谋远虑的长期布局。
via AI新闻资讯 (author: AI Base)
最新消息显示,公司正在开发新一代豆包AI耳机,已确定由声学与智能穿戴巨头歌尔股份代工生产,后者为此专门组建了项目团队,全力推进产品落地。尽管市场高度关注,字节跳动目前暂无明确上市计划,显示出其对产品成熟度与用户体验的谨慎态度。
与此同时,豆包AI硬件生态已初见雏形。其第一代AI眼镜计划量产约 10 万台,主要面向深度科技用户与开发者群体进行小规模投放,以收集真实场景反馈。第二代产品已在紧锣密鼓研发中,有望在交互体验与续航能力上实现显著升级。值得注意的是,供应链确认,该眼镜采用高通AR1 专用芯片,而非此前传闻的恒玄 2800 方案,凸显字节对高性能AI算力与能效平衡的重视。
在移动端,豆包团队亦取得突破性进展。其发布的 “豆包手机助手技术预览版” 已成功集成至努比亚M153 工程样机,首批设备迅速售罄,反映出开发者与极客用户对端侧AI能力的强烈需求。该助手可实现本地化语义理解、跨应用任务调度与个性化服务推荐,被视为字节打造“设备级AI代理”的关键一步。
从眼镜到耳机再到手机助手,字节跳动正通过多终端协同,构建以豆包大模型为核心的全场景AI入口战略。虽暂不急于大规模商用,但其在供应链整合、芯片选型与用户测试上的密集动作,清晰传递出一个信号:字节跳动正为下一代人机交互时代,做一场深谋远虑的长期布局。
via AI新闻资讯 (author: AI Base)
谷歌Gemini上线Personal Intelligence:跨应用推理成真,你的AI终于懂你了
近日,CEO Sundar Pichai宣布在Gemini应用中正式推出 “个人智能”(Personal Intelligence) 功能,通过安全授权整合Gmail、Google Docs、日历等核心服务,实现跨应用的深度推理与高度定制化响应。
这意味着,Gemini不再仅依赖公开网络信息作答,而是能基于你的个人上下文提供精准建议。例如,当你询问“我该换什么轮胎?”,它会自动查阅你Gmail中车辆保养记录或购车邮件,识别车型与使用年限,再结合路况和预算推荐合适型号;若问“适合全家的春假目的地”,它可调取家庭成员日历中的空闲时段、过往旅行偏好文档,甚至机票价格趋势,生成个性化行程方案。
尤为关键的是,谷歌强调隐私与控制权完全掌握在用户手中:
- Gemini 仅在用户明确提问时才会访问授权数据;
- 未被请求时,系统不会主动“窥探”任何信息;
- 用户可随时查看、管理或撤回对各应用的数据访问权限。
目前,该功能率先面向 Google AI Pro 和 AI Ultra 订阅用户开放,未来将逐步向更多用户推送,并有望集成至Google搜索的AI模式中,让“个性化智能”成为默认体验。
这一升级标志着AI助手从“知道很多”迈向“懂你所需”。当大模型真正融入个人数字生活流,效率革命才真正开始——而谷歌,正试图用“有边界、可信赖”的个人智能,定义下一代人机交互的标准。
via AI新闻资讯 (author: AI Base)
近日,CEO Sundar Pichai宣布在Gemini应用中正式推出 “个人智能”(Personal Intelligence) 功能,通过安全授权整合Gmail、Google Docs、日历等核心服务,实现跨应用的深度推理与高度定制化响应。
这意味着,Gemini不再仅依赖公开网络信息作答,而是能基于你的个人上下文提供精准建议。例如,当你询问“我该换什么轮胎?”,它会自动查阅你Gmail中车辆保养记录或购车邮件,识别车型与使用年限,再结合路况和预算推荐合适型号;若问“适合全家的春假目的地”,它可调取家庭成员日历中的空闲时段、过往旅行偏好文档,甚至机票价格趋势,生成个性化行程方案。
尤为关键的是,谷歌强调隐私与控制权完全掌握在用户手中:
- Gemini 仅在用户明确提问时才会访问授权数据;
- 未被请求时,系统不会主动“窥探”任何信息;
- 用户可随时查看、管理或撤回对各应用的数据访问权限。
目前,该功能率先面向 Google AI Pro 和 AI Ultra 订阅用户开放,未来将逐步向更多用户推送,并有望集成至Google搜索的AI模式中,让“个性化智能”成为默认体验。
这一升级标志着AI助手从“知道很多”迈向“懂你所需”。当大模型真正融入个人数字生活流,效率革命才真正开始——而谷歌,正试图用“有边界、可信赖”的个人智能,定义下一代人机交互的标准。
via AI新闻资讯 (author: AI Base)
面对日益增长的实时计算需求,人工智能巨头 OpenAI 正在大幅扩张其硬件版图。本周三,OpenAI 正式宣布与芯片制造商 Cerebras 达成一项为期多年的深度合作协议,旨在通过专用芯片技术突破现有 AI 响应速度的瓶颈。
百亿规模的计算资源布局
据知情人士及路透社透露,这笔交易的总价值超过 100亿美元。根据协议,从今年起至2028年,Cerebras 将向 OpenAI 提供高达 750兆瓦 的计算能力。
Cerebras 成立于十余年前,凭借专为 AI 设计的非 GPU 架构系统,在后 ChatGPT 时代的 AI 热潮中脱颖而出。其核心优势在于性能表现:Cerebras 声称其系统在处理 AI 应用时,速度显著优于以英伟达(Nvidia)为代表的传统 GPU 方案。
核心目标:实现“实时推理”
此次合作的核心在于提升用户体验的连贯性。OpenAI 表示,这些系统将大幅缩短原本耗时较长的响应过程。OpenAI 负责人 Sachin Katti 指出,公司的策略是构建“弹性系统组合”,而 Cerebras 将作为专用低延迟推理解决方案,为用户提供更自然、更快速的交互基础。
Cerebras 首席执行官 Andrew Feldman 对此形象地评价道:“正如宽带改变了互联网,实时推理也将改变人工智能。”
深厚的资本纽带与扩张雄心
此次重磅合作并非偶然。OpenAI 首席执行官 Sam Altman 此前已是 Cerebras 的投资者,且 OpenAI 曾一度考虑收购该公司。
目前,Cerebras 虽多次推迟其2024年的 IPO 计划,但在一级市场表现强劲。周二有消息称,该公司正洽谈以 220亿美元 的估值进行10亿美元的新一轮融资。此次与 OpenAI 的百亿签约,无疑为其在全球 AI 算力竞赛中增添了极重的筹码。
via AI新闻资讯 (author: AI Base)
谷歌旗下的 AI 聊天机器人Gemini近日迎来重大能力升级,正式推出名为“个人智能”(Personal Intelligence)的核心功能。这一更新标志着 Gemini 从单纯的对话工具,进化为能够深度理解用户个人生活习惯的数字助理。
通过该功能,用户可以将自己的 Gmail 邮件、Google Photos相册、搜索记录以及YouTube观看历史等数据与 Gemini 无缝连接。与以往简单的信息抓取不同,新版本在最新的 Gemini3系列大模型支持下,具备了跨应用、跨数据源的综合推理能力。这意味着,用户无需明确指定资料来源,Gemini 就能自动串联各方信息并给出精准建议。
在官方展示的场景中,当用户询问爱车的轮胎规格时,Gemini 不仅能给出标准参数,还能根据用户相册中全家自驾游的照片记录,推断出其经常进行长途旅行,从而额外推荐更适合全气候路况的轮胎选项。这种基于个人语境的深度洞察,让 AI 的回答更具针对性和“人情味”。
针对用户最关心的隐私问题,谷歌明确表示,“个人智能”功能完全遵循“主动加入”原则。除非用户手动选择开启,否则Gemini不会自动访问任何私人数据,确保用户在享受便捷服务的同时,拥有对个人信息的绝对掌控权。
划重点:
● 🔗 深度整合: Gemini现可连接 Gmail、相册、搜索和 YouTube 记录,实现多源数据综合分析,不再需要用户反复切换应用提供背景。
● 💡 智能推理: 依托最新的 Gemini3模型,AI 能根据用户的历史记录(如旅游照片)推断其潜在需求,并提供定制化的生活建议。
● 🔐 隐私可控: 谷歌强调该功能为可选项,用户必须主动开启授权,Gemini 才会读取私人信息,保障了数据使用的透明度。
via AI新闻资讯 (author: AI Base)
在持续数周的舆论风暴与监管压力下,X平台(原Twitter)于今日凌晨通过其官方安全账号@Safety宣布,对旗下AI模型Grok的图像生成与编辑功能实施史上最严格限制。此举直接回应了近期多起关于Grok生成涉及儿童“性化”图像及未经同意裸露内容的严重指控。
根据最新政策,Grok将彻底禁止对任何现实人物的照片进行编辑,尤其严禁将其修改为穿着比基尼、内衣等暴露服装的形象。该限制适用于所有用户,无论是否为付费订阅者。同时,X明确承诺:“Grok AI不会再将真人的照片改成‘比基尼照’。”
此外,xAI决定将图像生成功能全面纳入付费墙后,非订阅用户将完全丧失生成图片的权限。而在法律明确禁止的地区(如美国加州),系统将直接屏蔽所有生成“现实人物身穿比基尼或内衣”类图像的能力,从源头杜绝违规内容产出。
这一系列举措紧随加州总检察长罗布·邦塔(Rob Bonta)启动的正式调查。据其披露,一项独立分析显示,在2025年圣诞至新年期间,xAI生成的约2万张图像中,超半数包含极度暴露的人物形象,其中不乏疑似未成年人的内容,引发对AI平台内容安全机制的重大质疑。
面对危机,马斯克此前曾辩称,他对Grok生成未成年人裸露图像“毫不知情”,并解释称相关功能仅在开启NSFW(成人内容)选项时可用,且理论上应限于虚构的成年角色,尺度参照Apple TV上的R级电影。但他也承认,系统需根据各地法律动态调整限制策略。
X平台在声明中重申对儿童剥削行为零容忍的立场,并表示将持续清理包括儿童性虐待材料(CSAM)和未经同意裸露内容在内的高危信息。然而,此次事件再次暴露了生成式AI在开放部署中面临的伦理与合规挑战——当技术能力跑在监管与安全机制之前,再强大的模型也可能成为风险放大器。
在AI生成内容日益逼真的今天,如何平衡创造力与安全性,已成为所有大模型厂商无法回避的核心命题。
via AI新闻资讯 (author: AI Base)
面对持续数周的舆论压力,埃隆·马斯克旗下的 X 平台今日宣布,将正式收紧其人工智能助手Grok的图像编辑与生成功能。此前,该模型因被指控生成涉及儿童的性化图像及未经许可的裸露内容,引发了全球范围内的广泛争议。
根据 X 平台安全账号发布的最新声明,平台已通过技术手段禁止Grok对现实人物的图像进行恶意编辑,重点封堵了将他人照片修改为身着比基尼或其他暴露服装的功能。值得注意的是,这一禁令覆盖了平台的所有用户,即便是付费订阅者也将受到同样的约束。此外,为了进一步加强监管,xAI 决定将图像生成功能完全纳入付费体系,非付费用户将不再拥有相关权限。
此次功能“大缩水”的背后是来自法律层面的严峻挑战。就在声明发布前不久,加州政府已对Grok在处理儿童剥削材料方面的漏洞展开调查。调查报告显示,在刚刚过去的圣诞与新年期间,该模型生成的数万张图像中,超过一半涉及衣着暴露的内容,甚至包含疑似未成年人的形象。
尽管马斯克此前曾表示对这些违规内容“并不知情”,并强调Grok的设计初衷是仅允许生成虚构角色的受限内容,但随着多国监管机构的介入,X 平台最终选择了通过严厉的限制措施来回应外界的担忧。
划重点:
● 🚫 功能受限: Grok已被禁止对现实人物图像进行二次编辑,用户无法再利用该 AI 将真人照片修改为穿着比基尼等暴露服饰的形象。
● 💰 全面收费: 图像生成功能现已成为付费用户的专属,普通非付费用户将无法再调用Grok进行任何形式的图片创作。
● ⚖️ 监管压力: 因涉及大量“性化”及疑似未成年人违规图像,X 平台正面临加州等多地的法律调查,平台承诺将对儿童剥削行为采取零容忍立场。
via AI新闻资讯 (author: AI Base)
近日科技媒体 Appleinsider,苹果发表了一篇磅研究论文,介绍了最新研发的多模态 AI 模型 “zano”。这一模型将 “视觉” 和 “文本生成图像” 这两项功能有机结合,标志 AI 技术的又一次重大突破。
“Manzano” 的核心创新在于其 “双修” 能力:它不仅能够像人类一样精准地图像内容能根据文本生成高质量的图片。这技术的前无疑是令人振奋的在行业内,能同时满足两项需求的模型并多见,而现有模型往在画质理解能力之间存在妥协。
为了克服这一难题,Manzano 采用了的三段式架构。首先引入了一种 “混合器”,能同时生成连续和离散的视觉表示接着,强大的大语言模型(LLM)对像的义内容进行预测,通过 “扩散解码器” 进行像素级一设计使得 Manzano 在和图方面都表现出,甚至能够处理一些复杂任务,比如深估计、风格移和图像修复。
数据显示,Manzano 在对反直觉和违物理常识的复杂指令时,表现非常出色。例如,当生成 “一只鸟在大下方飞翔” 的画面时,Manzano 的逻辑准确性与 OpenAI 的 GPT4o 和谷歌 Nano Banana 模型不相上下。研究团队还测试了不同参数版本的模型,结果表明,随着模型规模的扩大,其性能提升依然显著。
尽管目前 zano 仍处于研究尚被直接应用于 iPhone 或 Mac 设备,但这无疑显示出苹果在构建更强大的底层方面的雄心。未来,业内普遍认为 Manzano 技术很可能会融入苹果即将推出的 “图乐园 Image Playground” 功能,为用户提供更智能的修图体验和更想象力画面生成能力,从而进一步巩固苹果在端 AI 领域的竞争力。
via AI新闻资讯 (author: AI Base)
OpenAI与Cerebras达成百亿美元算力合作
OpenAI与Cerebras Systems签署了一项多年期协议,将使用后者的硬件获取相当于 750 兆瓦的算力,以支持其快速扩张的人工智能基础设施。根据OpenAI周三发布的声明,该公司将把Cerebras纳入其计算网络,以实现更快的响应速度。知情人士表示,这笔交易规模超过100亿美元。OpenAI联合创始人兼总裁格雷格·布罗克曼称,速度提升将有助于解锁“下一代应用场景,并让接下来的十亿用户接入人工智能”。Cerebras公司采用超大规模芯片处理信息,走出了一条不同于主流路线的技术路径。该公司正寻求其技术的广泛应用,以挑战市场领导者英伟达。
—— 金十数据、路透社
via 风向旗参考快讯 - Telegram Channel
OpenAI与Cerebras Systems签署了一项多年期协议,将使用后者的硬件获取相当于 750 兆瓦的算力,以支持其快速扩张的人工智能基础设施。根据OpenAI周三发布的声明,该公司将把Cerebras纳入其计算网络,以实现更快的响应速度。知情人士表示,这笔交易规模超过100亿美元。OpenAI联合创始人兼总裁格雷格·布罗克曼称,速度提升将有助于解锁“下一代应用场景,并让接下来的十亿用户接入人工智能”。Cerebras公司采用超大规模芯片处理信息,走出了一条不同于主流路线的技术路径。该公司正寻求其技术的广泛应用,以挑战市场领导者英伟达。
—— 金十数据、路透社
via 风向旗参考快讯 - Telegram Channel
美国参议院通过了《DEFIANCE法案》,允许非自愿性深度伪造图像的受害者起诉创作者及分发者,并可追讨最高25万美元的赔偿金。该法案由参议员迪克·德宾发起,旨在针对故意制作和传播非自愿裸体影像的行为提起民事诉讼。该法案的早期版本曾于2024年获参议院通过,但在众议院搁置,目前新版本已再次移交众议院。此举背景包括社交平台X的Grok机器人因生成他人比基尼图像面临监管压力。此外,去年签署的《Take It Down法案》已要求社交平台在收到通知后48小时内删除此类素材。
(PCMag.com)
via 茶馆 - Telegram Channel
据《华尔街日报》报道,OpenAI 已与芯片初创公司 Cerebras 达成协议,将在未来三年内向其购买高达 750 兆瓦的计算能力。该笔交易总价值预计超过 100 亿美元。
(路透社)
via 茶馆 - Telegram Channel
OpenAI partners with Cerebras
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News