https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
⚖️ 马来西亚法官裁定前总理纳吉布将刘特佐视为代理人
2025年12月26日,马来西亚高等法院法官科林·劳伦斯·塞奎拉(Collin Lawrence Sequerah)在针对前总理纳吉布·阿扎克(Najib Razak)涉及1MDB案件的审理中发表了近三小时的总结陈述。法官在陈述中驳回了纳吉布关于其对违规行为不知情的辩护主张,并明确指出纳吉布在1MDB事务中将目前在逃的金融家刘特佐(Jho Low)作为其“代理人”。塞奎拉法官表示,纳吉布并非对情况一无所知,称其不仅拥有“无可挑剔的家庭和政治背景”,且具备“卓越的智力”。
(Bloomberg)
via 茶馆 - Telegram Channel
2025年12月26日,马来西亚高等法院法官科林·劳伦斯·塞奎拉(Collin Lawrence Sequerah)在针对前总理纳吉布·阿扎克(Najib Razak)涉及1MDB案件的审理中发表了近三小时的总结陈述。法官在陈述中驳回了纳吉布关于其对违规行为不知情的辩护主张,并明确指出纳吉布在1MDB事务中将目前在逃的金融家刘特佐(Jho Low)作为其“代理人”。塞奎拉法官表示,纳吉布并非对情况一无所知,称其不仅拥有“无可挑剔的家庭和政治背景”,且具备“卓越的智力”。
(Bloomberg)
via 茶馆 - Telegram Channel
长期以来,用户在利用 ChatGPT 撰写长篇邮件或博文时,往往需要忍受单一的聊天文本格式。生成完毕后,通常还需将其复制到第三方编辑器中进行二次调整。为了打破这一交互瓶颈,OpenAI 近日低调推出了一项名为“格式化模块”(Formatting Blocks)的新功能,旨在让 AI 的生成结果更加符合专业文档的处理直觉。
根据 AIbase 的观察,该功能的核心在于其“界面自适应”能力。当 ChatGPT 识别到用户正在执行写作类任务(如起草合同、撰写公众号文章或邮件)时,对话界面会自动切换至富文本编辑区域。此时,生成的内容不再被视为一段简单的聊天回执,而是一个具备结构化属性的“格式化文档”。
在实际操作中,用户只需在富文本区域内高亮选中特定文字,系统便会自动弹出类似 Word 或 Gmail 的迷你编辑工具栏。通过这个工具栏,用户可以直接对文本进行加粗、倾斜等基础排版操作。这种设计逻辑极大地降低了学习成本,让用户无需离开对话窗口,即可完成从“草稿生成”到“初步排版”的全过程。
目前,这项功能正处于分批推送阶段。AIbase 了解到,OpenAI 未来还计划引入更多文档格式支持。这一改进不仅优化了 ChatGPT 的前端交互体验,也预示着大模型正在从单纯的“问答工具”向更具生产力的“集成办公环境”演进。
划重点:
● 📝 智能识别场景: 当 ChatGPT 感知到写作任务时,会自动开启富文本编辑模式,将聊天框转化为专业文档编辑器。
● 🖱️ 即点即改体验: 新增“格式化工具框”,用户选中文字即可直接进行加粗、斜体等排版操作,操作逻辑贴近常用办公软件。
● 🚀 减少跨平台操作: 用户可以直接在对话界面完成初步润色,无需频繁将内容复制到外部 Word 或邮件客户端中处理。
via AI新闻资讯 (author: AI Base)
🎄 Codex 团队发布 GPT-5.2-Codex-XMas 模型并翻倍用户使用限额
Codex 团队于 12 月 26 日推出了新模型 GPT-5.2-Codex-XMas。该模型在性能表现上与 GPT-5.2-Codex 持平,主要针对节日氛围进行了个性化调整。与此同时,团队已重置所有用户的速率限制,并将使用额度提升至原有的 2 倍。此次限额翻倍政策将持续执行至 2026 年 1 月 1 日。
(科技圈)
via 茶馆 - Telegram Channel
Codex 团队于 12 月 26 日推出了新模型 GPT-5.2-Codex-XMas。该模型在性能表现上与 GPT-5.2-Codex 持平,主要针对节日氛围进行了个性化调整。与此同时,团队已重置所有用户的速率限制,并将使用额度提升至原有的 2 倍。此次限额翻倍政策将持续执行至 2026 年 1 月 1 日。
(科技圈)
via 茶馆 - Telegram Channel
Codex 团队于 12 月 26 日推出新模型 GPT-5.2-Codex-XMas。该模型性能与 GPT-5.2-Codex 持平,主要针对节日氛围进行了个性化调整。同时,团队已重置所有用户的速率限制,并将使用额度提升至原有的 2 倍。该限额翻倍政策将持续至 2026 年 1 月 1 日。
Tibo
🍀在花频道 🍵茶馆 📮投稿新鲜事
via 科技圈🎗在花频道📮 - Telegram Channel
12月26日,通用AI助手灵光宣布:灵光用户已成功创建1200万个闪应用。闪应用是灵光三大功能之一,用户无需任何编程基础,用自然语言描述自己的需求,灵光便可最快30秒生成一个可编辑、可交互、可分享的小应用。闪应用创建数的增长,显示出这一产品形态正在被普通用户快速接受与持续使用。
据公开报道,灵光上线两周后,用户就已成功创建330万个闪应用。不到1个月时间增长至1200万,背后是满足了普通人生活里的个性化需求。例如,河南用户毛强,用灵光闪应用为偏瘫失语的父亲,手搓了一个“小话筒”应用。老人只需点击“吃饭”“睡觉”等大字体按钮,手机便会清晰朗读。毛强还把更多失语老人的需求都加到这个小应用里,最后取名叫“爷爷奶奶的小话筒”。
据介绍,用户创建的灵光闪应用已覆盖娱乐与陪伴、生活服务、效率工具、教育与自我提升等主要场景。业内人士认为,这一系列使用行为表明,闪应用不仅正在成为用户自定义工具与服务的新入口,也进一步释放了普通用户的创造力,放大了先进AI工具在真实场景中的应用价值。
统计数据显示,灵光已进入QuestMobile2025年AI原生App周活跃用户规模TOP10,上线以来的日人均使用次数达到了4.6次。
对于一款以「对话 + 应用生成」为核心形态的AI原生App来说,这样的表现意味着用户不只是短期尝鲜,而是正在将其纳入日常工具箱中,持续在工作和生活场景中调用。
1200万个闪应用背后是AI应用满足用户高度个性化、情境化、即时性的需求。随着更多场景被激活,灵光在个人与企业端的应用空间,仍将持续拓展。
via AI新闻资讯 (author: AI Base)
意大利勒令Meta暂停WhatsApp AI禁令!欧盟同步调查,Meta被指滥用市场支配地位打压竞品聊天机器人
全球科技监管再出重拳。意大利竞争管理局(AGCM)于 12 月 25 日宣布,紧急叫停Meta禁止第三方AI聊天机器人接入WhatsApp Business API的政策,理由是该行为涉嫌滥用市场支配地位,损害AI服务市场竞争与消费者利益。此举紧随欧盟委员会本月启动的同类调查,标志着欧洲正对Meta在AI入口布局展开系统性反垄断审查。
政策核心争议:为何只禁ChatGPT,不禁客服机器人?
2024 年 10 月,Meta宣布将于 2025 年 1 月起修改WhatsApp Business API政策:禁止通过API分发通用AI聊天机器人(如ChatGPT、Claude、Perplexity等),但允许企业使用AI提供专属客户服务(如电商售后、银行查询)。Meta辩称,API“并非为通用聊天机器人设计”,且系统承压过大。
然而,监管机构指出,此举实质是利用WhatsApp的 19 亿月活用户垄断地位,为自家“Meta AI”扫清竞争障碍。AGCM强调:“该政策可能限制AI聊天机器人市场的技术发展与市场准入,造成‘严重且不可逆’的竞争损害。”
欧盟同步行动,Meta面临跨区域围剿
意大利并非孤例。欧盟委员会已于 12 月初正式立案,调查该政策是否违反《数字市场法案》(DMA),阻止第三方AI服务商在欧洲经济区(EEA)。若查实,Meta或面临高达全球年营收10%的罚款。
Meta强硬回应:称决定“根本性错误”
面对禁令,Meta在声明中反驳称:“AGCM的决定存在根本性错误。WhatsApp Business平台从来就不是AI公司的‘应用商店’。AI公司真正的分发渠道是App Store、官网与行业合作。”公司表示将立即提起上诉。
行业影响:AI入口争夺战升级为法律战
此次事件揭示了一场更深层的博弈:超级App正试图掌控AI服务的“分发命脉”。WhatsApp作为全球最普及的通讯工具,其API若开放给通用AI,将迅速成为AI聊天机器人的高价值流量入口。Meta此举被广泛视为“围墙花园”策略的延伸——扶持自研AI,封禁外部竞品。
AIbase认为,意大利与欧盟的联合行动,不仅关乎一家公司政策合规性,更是在定义AI时代“平台中立性”与“互操作权”的边界。当通讯平台兼具社交、商业与AI分发功能,如何防止其成为“数字关卡”,将成为全球数字治理的核心议题。而这场由WhatsApp引发的风暴,或许只是AI入口战争的开端。
via AI新闻资讯 (author: AI Base)
全球科技监管再出重拳。意大利竞争管理局(AGCM)于 12 月 25 日宣布,紧急叫停Meta禁止第三方AI聊天机器人接入WhatsApp Business API的政策,理由是该行为涉嫌滥用市场支配地位,损害AI服务市场竞争与消费者利益。此举紧随欧盟委员会本月启动的同类调查,标志着欧洲正对Meta在AI入口布局展开系统性反垄断审查。
政策核心争议:为何只禁ChatGPT,不禁客服机器人?
2024 年 10 月,Meta宣布将于 2025 年 1 月起修改WhatsApp Business API政策:禁止通过API分发通用AI聊天机器人(如ChatGPT、Claude、Perplexity等),但允许企业使用AI提供专属客户服务(如电商售后、银行查询)。Meta辩称,API“并非为通用聊天机器人设计”,且系统承压过大。
然而,监管机构指出,此举实质是利用WhatsApp的 19 亿月活用户垄断地位,为自家“Meta AI”扫清竞争障碍。AGCM强调:“该政策可能限制AI聊天机器人市场的技术发展与市场准入,造成‘严重且不可逆’的竞争损害。”
欧盟同步行动,Meta面临跨区域围剿
意大利并非孤例。欧盟委员会已于 12 月初正式立案,调查该政策是否违反《数字市场法案》(DMA),阻止第三方AI服务商在欧洲经济区(EEA)。若查实,Meta或面临高达全球年营收10%的罚款。
Meta强硬回应:称决定“根本性错误”
面对禁令,Meta在声明中反驳称:“AGCM的决定存在根本性错误。WhatsApp Business平台从来就不是AI公司的‘应用商店’。AI公司真正的分发渠道是App Store、官网与行业合作。”公司表示将立即提起上诉。
行业影响:AI入口争夺战升级为法律战
此次事件揭示了一场更深层的博弈:超级App正试图掌控AI服务的“分发命脉”。WhatsApp作为全球最普及的通讯工具,其API若开放给通用AI,将迅速成为AI聊天机器人的高价值流量入口。Meta此举被广泛视为“围墙花园”策略的延伸——扶持自研AI,封禁外部竞品。
AIbase认为,意大利与欧盟的联合行动,不仅关乎一家公司政策合规性,更是在定义AI时代“平台中立性”与“互操作权”的边界。当通讯平台兼具社交、商业与AI分发功能,如何防止其成为“数字关卡”,将成为全球数字治理的核心议题。而这场由WhatsApp引发的风暴,或许只是AI入口战争的开端。
via AI新闻资讯 (author: AI Base)
据 AIbase 报道,联想集团计划在即将举行的 CES 期间,正式发布首款面向全球市场的战略级应用——“AI超级智能体”。这一动作标志着联想在 AI 应用层面的全面发力,其目标直指字节跳动近期热议的“豆包手机助手”。尽管该智能体的官方名称尚未公布,但从接近联想的知情人士处获悉,其功能复杂度与生态协同能力较豆包更为强悍。
与市场上常见的单一语音助手不同,联想这款超级智能体被定义为一种系统级应用,它并非独立的操作系统,却拥有连接不同 AI 能力与多种硬件终端的核心中枢功能。该智能体彻底打通了联想的硬件版图,能够实现在摩托罗拉手机、联想 PC、平板电脑以及可穿戴设备之间的无缝衔接。这种跨设备、跨系统的特性,意味着用户可以在多终端环境下通过文字、语音甚至是环境感知进行互动,且智能体会随着使用时间的增长,深度学习并适应用户的个人习惯。
在竞争格局上,联想展现出了作为硬件巨头的独特优势。本月初,字节跳动曾联合中兴通讯推出具备跨应用调用能力的“豆包手机”,可协助用户完成点外卖、订机票、回复消息等任务。然而,联想作为全球市占率高达 25.5% 的 PC 领头羊,其旗下摩托罗拉手机每季度的出货量亦突破 1600 万台。
这种稳固的硬件基础,让联想超级智能体在手机和 PC 上具备了更深层的系统级嵌入权限。相比于字节跳动的跨界合作模式,联想能够从底层硬件出发,更高效地统筹后台多个智能体,从而在跨设备连接与任务调度上实现更全面的用户体验。
via AI新闻资讯 (author: AI Base)
HodlHer 完成 150 万美元融资,构建 AI 驱动的 Web3 操作系统
HodlHer 近日宣布完成 150 万美元的战略融资,吸引了 Chain Capital、Bitrise Capital、CGV 等投资者的参与。这笔资金将主要用于推动 HodlHer 核心技术基础 HodlOS 的发展和生态扩展,增强其在情感交互、多代理系统以及链上代理经济方面的技术能力,助力下一代 Web3 操作系统的部署。
HodlHer 致力于解决一个根本性挑战:如何使智能代理不仅能够理解用户的情感和意图,还能在日益复杂的 Web3 环境中安全高效地代表用户行动。为此,HodlHer 正在开发一个具有同理心、持久记忆和执行能力的代理操作系统。
HodlOS 是建立在高性能区块链 Injective 上的智能操作系统,专门为 Web3 设计。它将情感感知、长期记忆和去中心化执行整合在一起,使用户交互超越信息交换,直接转化为链上行动。这种架构创造了一个闭环,将伴侣式互动、战略指导和真实执行结合在一起,提供了一种从理解到行动的统一体验。
目前,HodlHer 已经推出了 Sola,一款 24 小时在线的情感交易助手,作为系统的主要交互入口。Sola 通过语义建模、语调识别和长期记忆,能够感知用户的情感状态和市场动态,提供同理心的战略指导和情感支持,标志着情感互动与链上执行的早期整合。
此外,团队还在加速开发 Super InternX,一个面向 Web3 创作者和项目团队的多代理助手系统,提供自动内容生成和多语言本地化工具。同时,HodlHer 还将推出 Agent Market,这是一个可组合的链上代理市场,用户可以一键创建、部署和交易个性化的 AI 伴侣,推动 “代理作为资产” 的新理念。
HodlHer 的愿景是将情感作为人类互动最直观、自然的界面,并使智能行为能够内在地创造可量化的价值。通过这一战略融资,HodlHer 将在核心技术开发、生态扩展和全球市场渗透等方面加速发展,致力于在个性经济中确立基础 Web3 操作系统的地位。
via AI新闻资讯 (author: AI Base)
HodlHer 近日宣布完成 150 万美元的战略融资,吸引了 Chain Capital、Bitrise Capital、CGV 等投资者的参与。这笔资金将主要用于推动 HodlHer 核心技术基础 HodlOS 的发展和生态扩展,增强其在情感交互、多代理系统以及链上代理经济方面的技术能力,助力下一代 Web3 操作系统的部署。
HodlHer 致力于解决一个根本性挑战:如何使智能代理不仅能够理解用户的情感和意图,还能在日益复杂的 Web3 环境中安全高效地代表用户行动。为此,HodlHer 正在开发一个具有同理心、持久记忆和执行能力的代理操作系统。
HodlOS 是建立在高性能区块链 Injective 上的智能操作系统,专门为 Web3 设计。它将情感感知、长期记忆和去中心化执行整合在一起,使用户交互超越信息交换,直接转化为链上行动。这种架构创造了一个闭环,将伴侣式互动、战略指导和真实执行结合在一起,提供了一种从理解到行动的统一体验。
目前,HodlHer 已经推出了 Sola,一款 24 小时在线的情感交易助手,作为系统的主要交互入口。Sola 通过语义建模、语调识别和长期记忆,能够感知用户的情感状态和市场动态,提供同理心的战略指导和情感支持,标志着情感互动与链上执行的早期整合。
此外,团队还在加速开发 Super InternX,一个面向 Web3 创作者和项目团队的多代理助手系统,提供自动内容生成和多语言本地化工具。同时,HodlHer 还将推出 Agent Market,这是一个可组合的链上代理市场,用户可以一键创建、部署和交易个性化的 AI 伴侣,推动 “代理作为资产” 的新理念。
HodlHer 的愿景是将情感作为人类互动最直观、自然的界面,并使智能行为能够内在地创造可量化的价值。通过这一战略融资,HodlHer 将在核心技术开发、生态扩展和全球市场渗透等方面加速发展,致力于在个性经济中确立基础 Web3 操作系统的地位。
划重点:
🌟 HodlHer 完成 150 万美元融资,目标是推动 AI 驱动的 Web3 操作系统 HodlOS 的开发。
🤖 该系统结合情感交互与链上执行,为用户提供全面的互动体验。
🛠️ 未来将推出个性化 AI 代理市场 Agent Market,用户可轻松创建和交易智能代理。
via AI新闻资讯 (author: AI Base)
OpenAI 与博通达成 10GW 定制芯片合作,2026 年推出新一代 AI 基础设施
在人工智能领域,OpenAI 与博通(Broadcom)达成了一项重大的合作,标志着传统 “仅使用 GPU” 的时代即将结束。双方已经完成了定制 AI 推理引擎的设计阶段,预计将在 2026 年下半年首次投入数据中心使用。这一合作计划将在未来五年内部署高达 10 吉瓦(GW)的计算能力,将彻底改变人工智能的经济格局。
这项新芯片的设计并不是现有硬件的简单复制,而是专门为 “o1” 系列推理模型和未来的 GPT 版本量身定制。与英伟达(Nvidia)推出的通用型 H100 或 Blackwell 芯片不同,OpenAI 的新芯片采用了 “系统阵列” 设计,特别优化了 Transformer 架构中的密集矩阵乘法计算。
根据业内消息,这款芯片将使用台积电(TSMC)最先进的 3 纳米工艺进行生产。同时,博通还将其行业领先的以太网架构和高速 PCIe 互联直接集成到芯片设计中,以实现高达 10GW 的计算能力。业界专家预测,这一硬件与软件的共同设计将使得每个生成的 token 的能耗减少 30%。
这一战略转变对科技行业的影响深远。长期以来,英伟达在高端 AI 芯片市场上占据主导地位,但 OpenAI 转向定制芯片,为其他 AI 实验室提供了可借鉴的蓝图。此外,OpenAI 的垂直整合使其不再完全依赖外部硬件供应商,增强了其在与谷歌(Google)和亚马逊(Amazon)等大型科技公司的竞争力。
在这个计划的核心,OpenAI 的 CEO 萨姆・阿尔特曼提出了 “从晶体管到 token” 的理念。这一理念旨在将整个 AI 流程视为一个统一的管道,通过控制芯片设计,OpenAI 能够最大化每瓦的 token 输出,以适应 10GW 的庞大部署需求。
随着 2026 年的临近,OpenAI 与博通面临的主要挑战是执行和制造能力。尽管设计已经完成,但在先进封装技术方面的瓶颈可能影响到生产进度。
via AI新闻资讯 (author: AI Base)
在人工智能领域,OpenAI 与博通(Broadcom)达成了一项重大的合作,标志着传统 “仅使用 GPU” 的时代即将结束。双方已经完成了定制 AI 推理引擎的设计阶段,预计将在 2026 年下半年首次投入数据中心使用。这一合作计划将在未来五年内部署高达 10 吉瓦(GW)的计算能力,将彻底改变人工智能的经济格局。
这项新芯片的设计并不是现有硬件的简单复制,而是专门为 “o1” 系列推理模型和未来的 GPT 版本量身定制。与英伟达(Nvidia)推出的通用型 H100 或 Blackwell 芯片不同,OpenAI 的新芯片采用了 “系统阵列” 设计,特别优化了 Transformer 架构中的密集矩阵乘法计算。
根据业内消息,这款芯片将使用台积电(TSMC)最先进的 3 纳米工艺进行生产。同时,博通还将其行业领先的以太网架构和高速 PCIe 互联直接集成到芯片设计中,以实现高达 10GW 的计算能力。业界专家预测,这一硬件与软件的共同设计将使得每个生成的 token 的能耗减少 30%。
这一战略转变对科技行业的影响深远。长期以来,英伟达在高端 AI 芯片市场上占据主导地位,但 OpenAI 转向定制芯片,为其他 AI 实验室提供了可借鉴的蓝图。此外,OpenAI 的垂直整合使其不再完全依赖外部硬件供应商,增强了其在与谷歌(Google)和亚马逊(Amazon)等大型科技公司的竞争力。
在这个计划的核心,OpenAI 的 CEO 萨姆・阿尔特曼提出了 “从晶体管到 token” 的理念。这一理念旨在将整个 AI 流程视为一个统一的管道,通过控制芯片设计,OpenAI 能够最大化每瓦的 token 输出,以适应 10GW 的庞大部署需求。
随着 2026 年的临近,OpenAI 与博通面临的主要挑战是执行和制造能力。尽管设计已经完成,但在先进封装技术方面的瓶颈可能影响到生产进度。
划重点:
🌟 OpenAI 与博通合作,推出定制 AI 推理芯片,计划在 2026 年下半年首次部署。
⚡ 该芯片采用 3 纳米工艺,优化了 Transformer 架构中的计算,能效提升显著。
📈 OpenAI 通过垂直整合增强竞争力,推动 AI 领域从传统计算向定制硬件转型。
via AI新闻资讯 (author: AI Base)
研究称 ChatGPT、Claude 等模型过度高估了人类的逻辑水平
一直以来,人们都在担心 AI 是否会超越人类智慧,但最新的研究却揭示了一个有趣的现象:像ChatGPT和Claude这样的顶尖 AI 模型,实际上在“过度神话”人类的理性。这些模型往往假设人类在做决策时会表现出极高的逻辑性和战略性,而现实情况并非如此。
研究人员通过经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)对 AI 进行了测试。实验要求参与者预测他人的选择以获得胜利。理论上,这需要深层的逻辑推演,但人类在实际操作中往往难以达到这种理想状态。有趣的是,当 AI 与人类对弈时,它们虽然能根据对手的背景(如大学生或专家)调整策略,但依然倾向于认为人类会做出最理性的选择。这种“把人想得太聪明”的偏差,导致 AI 在预测人类真实决策时经常失准。
这项研究提醒我们,尽管 AI 可以精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准 AI 对人类非理性行为的认知,将是未来技术发展的关键挑战。
划重点:
● 🧠 认知存在偏差: ChatGPT等模型倾向于假设人类是完全理性的决策者,忽略了人类行为中的非理性因素。
● 🎯 预测结果失准: 由于“想得太多”,AI 在博弈实验中往往因为高估对手的逻辑层次而错失最符合现实的判断。
● ⚠️ 潜在应用风险: 专家警告,这种认知脱节可能影响 AI 在经济建模等需要精准预测人类行为领域的表现。
via AI新闻资讯 (author: AI Base)
一直以来,人们都在担心 AI 是否会超越人类智慧,但最新的研究却揭示了一个有趣的现象:像ChatGPT和Claude这样的顶尖 AI 模型,实际上在“过度神话”人类的理性。这些模型往往假设人类在做决策时会表现出极高的逻辑性和战略性,而现实情况并非如此。
研究人员通过经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)对 AI 进行了测试。实验要求参与者预测他人的选择以获得胜利。理论上,这需要深层的逻辑推演,但人类在实际操作中往往难以达到这种理想状态。有趣的是,当 AI 与人类对弈时,它们虽然能根据对手的背景(如大学生或专家)调整策略,但依然倾向于认为人类会做出最理性的选择。这种“把人想得太聪明”的偏差,导致 AI 在预测人类真实决策时经常失准。
这项研究提醒我们,尽管 AI 可以精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准 AI 对人类非理性行为的认知,将是未来技术发展的关键挑战。
划重点:
● 🧠 认知存在偏差: ChatGPT等模型倾向于假设人类是完全理性的决策者,忽略了人类行为中的非理性因素。
● 🎯 预测结果失准: 由于“想得太多”,AI 在博弈实验中往往因为高估对手的逻辑层次而错失最符合现实的判断。
● ⚠️ 潜在应用风险: 专家警告,这种认知脱节可能影响 AI 在经济建模等需要精准预测人类行为领域的表现。
via AI新闻资讯 (author: AI Base)
北京发布开源生态三年行动方案!2028年前打造10个国际顶级开源项目,AI大模型落地目标100个
中国开源生态迎来政策强引擎。近日,《北京市开源生态体系建设实施方案(2026— 2028 年)正式印发,明确提出:到 2028 年,培育 10 个具有国际影响力的开源项目(其中不少于 5 个达到国际引领水平),打造 30 个国内明星开源项目(AI领域占比超1/3),并推动 100 个行业大模型实现规模化落地应用。这一方案标志着北京正以国家战略高度系统性构建全球领先的开源创新高地。
聚焦AI与大模型,打造开源“硬核”输出
方案特别强调人工智能领域的开源引领作用:
-10 个以上AI开源项目将纳入“国内明星”培育计划,覆盖大模型、多模态、智能体、具身智能等前沿方向;
-100 个行业大模型落地目标,将依托北京在金融、医疗、政务、制造等领域的场景优势,推动模型从“实验室Demo”走向“产线级应用”;
- 支持高校、企业、开发者社区共建高质量中文开源数据集与评测基准,破解“卡脖子”数据依赖。
全链条扶持,从代码到生态
为实现目标,北京将构建“政策+平台+人才+资本”四维支撑体系:
- 设立开源创新专项资金,对国际影响力项目给予最高千万元级资助;
- 建设北京开源创新中心,提供代码托管、合规审查、国际化推广等一站式服务;
- 推动高校开设开源课程,建立“开源贡献”纳入职称评定与人才引进评价体系;
- 鼓励国企、央企优先采购基于优质开源项目构建的解决方案,打通“研-用-产”闭环。
为何是北京?生态优势已现端倪
作为全国AI创新策源地,北京已汇聚全球Top10 开源社区中的 7 个中国节点,拥有超 20 万活跃开源贡献者,并诞生了如百度PaddlePaddle、智谱GLM、MiniMax MiniCPM、面壁CPM等知名开源模型。此次方案将系统性放大这一优势,推动北京从“开源参与者”向“规则制定者”跃升。
AIbase认为,《实施方案》不仅是地方政策,更是中国在全球AI治理与技术标准竞争中的关键落子。当开源成为大国科技博弈的“新边疆”,北京正以开放、协作、普惠的生态战略,争夺下一代智能基础设施的话语权。而 100 个行业大模型的落地承诺,更将确保技术红利真正转化为生产力——开源不是终点,用起来才是。
via AI新闻资讯 (author: AI Base)
中国开源生态迎来政策强引擎。近日,《北京市开源生态体系建设实施方案(2026— 2028 年)正式印发,明确提出:到 2028 年,培育 10 个具有国际影响力的开源项目(其中不少于 5 个达到国际引领水平),打造 30 个国内明星开源项目(AI领域占比超1/3),并推动 100 个行业大模型实现规模化落地应用。这一方案标志着北京正以国家战略高度系统性构建全球领先的开源创新高地。
聚焦AI与大模型,打造开源“硬核”输出
方案特别强调人工智能领域的开源引领作用:
-10 个以上AI开源项目将纳入“国内明星”培育计划,覆盖大模型、多模态、智能体、具身智能等前沿方向;
-100 个行业大模型落地目标,将依托北京在金融、医疗、政务、制造等领域的场景优势,推动模型从“实验室Demo”走向“产线级应用”;
- 支持高校、企业、开发者社区共建高质量中文开源数据集与评测基准,破解“卡脖子”数据依赖。
全链条扶持,从代码到生态
为实现目标,北京将构建“政策+平台+人才+资本”四维支撑体系:
- 设立开源创新专项资金,对国际影响力项目给予最高千万元级资助;
- 建设北京开源创新中心,提供代码托管、合规审查、国际化推广等一站式服务;
- 推动高校开设开源课程,建立“开源贡献”纳入职称评定与人才引进评价体系;
- 鼓励国企、央企优先采购基于优质开源项目构建的解决方案,打通“研-用-产”闭环。
为何是北京?生态优势已现端倪
作为全国AI创新策源地,北京已汇聚全球Top10 开源社区中的 7 个中国节点,拥有超 20 万活跃开源贡献者,并诞生了如百度PaddlePaddle、智谱GLM、MiniMax MiniCPM、面壁CPM等知名开源模型。此次方案将系统性放大这一优势,推动北京从“开源参与者”向“规则制定者”跃升。
AIbase认为,《实施方案》不仅是地方政策,更是中国在全球AI治理与技术标准竞争中的关键落子。当开源成为大国科技博弈的“新边疆”,北京正以开放、协作、普惠的生态战略,争夺下一代智能基础设施的话语权。而 100 个行业大模型的落地承诺,更将确保技术红利真正转化为生产力——开源不是终点,用起来才是。
via AI新闻资讯 (author: AI Base)
大模型微调正从“实验室专属”走向“人人可及”。英伟达近日发布面向初学者的LLM微调官方指南,系统性详解如何在从GeForce RTX笔记本到DGX Spark工作站的全系NVIDIA硬件上,利用开源框架Unsloth高效完成模型定制。该指南不仅降低技术门槛,更通过性能优化,让普通开发者也能在消费级设备上实现专业级微调。
Unsloth:专为NVIDIA GPU打造的微调加速器
Unsloth是一个针对LLM训练全流程优化的开源框架,深度适配CUDA与Tensor Core架构。相比标准Hugging Face Transformers实现,在RTX系列GPU上训练速度提升约2.5倍,显存占用显著降低。这意味着,一台搭载RTX4090的笔记本,即可完成过去需多卡服务器才能运行的微调任务。
三大微调模式全覆盖,按需选择灵活适配
英伟达指南详细对比了三种主流微调方法,帮助开发者“对症下药”:
从学生到企业,全民微调时代来临
该指南特别强调“从小处着手”:用户可先用QLoRA在RTX3060上微调7B模型,再逐步扩展至更大规模。英伟达还提供Docker镜像与Colab示例,实现“开箱即用”。
AIbase认为,英伟达此举不仅是技术布道,更是生态战略——通过降低微调门槛,进一步巩固CUDA在AI开发中的统治地位。当Unsloth让一张消费级显卡发挥接近专业卡的效能,开源社区将迎来爆发式创新。而这场由英伟达推动的“微调民主化”,正加速大模型从“通用智能”走向“千人千面”的个性化智能时代。
via AI新闻资讯 (author: AI Base)
OpenAI 近日悄然上线了名为“格式化块”的新功能,通过自动调整 UI 布局,使 ChatGPT 的交互界面能够根据特定任务进行适配,从而显著提升内容创作的体验。
以往 ChatGPT 在撰写邮件或博客时,仅能以普通聊天气泡的形式展示内容,用户体验较为单一。此次更新推出的“格式框”本质上是一个迷你编辑器工具栏。当用户在邮件或写作草稿等新型富文本区域中突出显示文本时,该工具栏会自动弹出。这意味着 ChatGPT 不再将生成的内容视为枯燥的聊天记录,而是将其呈现为可直接编辑的格式化文档,用户可以像在 Word 或 Gmail 中一样对草稿进行即时调整与润色。
目前,这项功能正在逐步外测推出。OpenAI 旨在通过这种更符合直觉的 UI 变化,让生成式 AI 的输出结果与真实应用场景无缝对接。据悉,官方后续还将增加对更多文档格式的支持。
via AI新闻资讯 (author: AI Base)
阿里云开源通义千问图像编辑模型 Qwen-Image-Edit-2511!修复“图像漂移”问题,编辑一致性显著提升
阿里云持续加码AIGC开源生态。今日,通义实验室正式开源其最新图像编辑模型——Qwen-Image-Edit-2511,重点解决前代版本(2509)中存在的图像编辑后“轻微漂移”问题(即编辑区域人物或物体位置发生偏移),通过多项技术优化,显著提升编辑前后的一致性与视觉稳定性,为开发者提供更可靠、精准的可控生成工具。
直击痛点:告别“越修越歪”的编辑体验
在早期版本Qwen-Image-Edit- 2509 中,用户反馈在进行局部修改(如更换服装、调整发型、替换背景)时,目标对象常出现微妙但明显的位移或形变,破坏图像整体协调性。Qwen-Image-Edit- 2511 针对性强化了空间对齐机制与结构保持能力,确保编辑仅作用于指定区域,其余部分“纹丝不动”,实现“所想即所得”的精准控制。
技术升级:一致性为核心,兼顾生成质量
新版本在以下方面实现关键增强:
- 结构一致性优化:引入改进的参考注意力机制,强化原始图像几何结构约束;
- 细节保真度提升:在像素级修复中保留纹理、光照与边缘锐度;
- 指令-图像对齐增强:更准确理解复杂编辑指令(如“给女士戴上红色贝雷帽,帽子位置自然”)。
开源即赋能,推动AIGC工具链成熟
Qwen-Image-Edit- 2511 已开放模型权重与推理代码,支持通过文本指令或掩码图进行编辑,可广泛应用于电商换装、影视后期、设计原型迭代、社交媒体修图等场景。开发者可基于该模型快速构建高精度图像编辑应用,无需从零训练。
AIbase认为,图像编辑模型的“微米级”精度提升,正是AIGC从“能用”迈向“好用”的关键一步。当AI不再“手抖”,创作者才能真正信任它作为数字画笔。阿里云此次快速迭代并开源修复版,不仅体现其技术响应速度,更彰显中国大模型厂商在垂直能力深耕与社区共建上的持续投入——AIGC的下一程,属于那些能解决真实世界“小问题”的大模型。
via AI新闻资讯 (author: AI Base)
阿里云持续加码AIGC开源生态。今日,通义实验室正式开源其最新图像编辑模型——Qwen-Image-Edit-2511,重点解决前代版本(2509)中存在的图像编辑后“轻微漂移”问题(即编辑区域人物或物体位置发生偏移),通过多项技术优化,显著提升编辑前后的一致性与视觉稳定性,为开发者提供更可靠、精准的可控生成工具。
直击痛点:告别“越修越歪”的编辑体验
在早期版本Qwen-Image-Edit- 2509 中,用户反馈在进行局部修改(如更换服装、调整发型、替换背景)时,目标对象常出现微妙但明显的位移或形变,破坏图像整体协调性。Qwen-Image-Edit- 2511 针对性强化了空间对齐机制与结构保持能力,确保编辑仅作用于指定区域,其余部分“纹丝不动”,实现“所想即所得”的精准控制。
技术升级:一致性为核心,兼顾生成质量
新版本在以下方面实现关键增强:
- 结构一致性优化:引入改进的参考注意力机制,强化原始图像几何结构约束;
- 细节保真度提升:在像素级修复中保留纹理、光照与边缘锐度;
- 指令-图像对齐增强:更准确理解复杂编辑指令(如“给女士戴上红色贝雷帽,帽子位置自然”)。
开源即赋能,推动AIGC工具链成熟
Qwen-Image-Edit- 2511 已开放模型权重与推理代码,支持通过文本指令或掩码图进行编辑,可广泛应用于电商换装、影视后期、设计原型迭代、社交媒体修图等场景。开发者可基于该模型快速构建高精度图像编辑应用,无需从零训练。
AIbase认为,图像编辑模型的“微米级”精度提升,正是AIGC从“能用”迈向“好用”的关键一步。当AI不再“手抖”,创作者才能真正信任它作为数字画笔。阿里云此次快速迭代并开源修复版,不仅体现其技术响应速度,更彰显中国大模型厂商在垂直能力深耕与社区共建上的持续投入——AIGC的下一程,属于那些能解决真实世界“小问题”的大模型。
via AI新闻资讯 (author: AI Base)
英伟达(NVIDIA)近日斥资约200亿美元,获得了 AI 芯片初创公司 Groq 的技术非独家授权。尽管 Groq 仍保持独立运营,但其创始人 Jonathan Ross 等核心团队已加入英伟达,这笔交易被外界视为一次旨在规避监管审查的“变相收购”,其交易金额高达 Groq 此前估值的三倍。
战略防御:围堵谷歌 TPU 威胁
英伟达此举的核心目标是应对谷歌张量处理单元(TPU)日益严峻的挑战。目前,苹果、Anthropic 等科技巨头已开始转向 TPU 训练模型,而谷歌即将推出的 TPUv7在算力上已直追英伟达 Blackwell 架构。更为关键的是,TPU 的成本优势已成为客户压价英伟达的筹码。通过获得 Groq 专门针对大型语言模型推理优化的 LPU(语言处理单元)技术,英伟达旨在补齐其在低延迟推理市场的短板。
布局推理市场:从训练向应用延伸
英伟达首席执行官黄仁勋表示,计划将 Groq 的低延迟处理器集成至英伟达 AI 工厂架构,以服务更广泛的实时工作负载。虽然英伟达 GPU 在模型训练领域仍占主导,但在推理市场正面临 Meta、OpenAI 及各初创公司的低成本方案冲击。Groq 虽曾面临产能与营收压力,但其独特的技术架构被视为提升英伟达推理效能的关键增量。
行业趋势:巨头开启“收编”模式
随着 AI 芯片竞争白热化,通过人才与技术授权实现事实上的“软收购”已成为巨头常态。除英伟达外,英特尔、Meta 及 AMD 等也纷纷通过收购 SambaNova、Rivos 和 Untether AI 团队来强化自身版图,试图打破英伟达 CUDA 语言构建的护城河,AI 芯片市场正进入新一轮资源整合期。
via AI新闻资讯 (author: AI Base)
比亚迪全系车型搭载豆包大模型!携手火山引擎打造行业最大规模智能座舱AI落地
智能座舱进入“全系AI化”时代。在近日举行的火山引擎FORCE原动力大会上,比亚迪与火山引擎正式宣布达成深度合作,将字节跳动豆包大模型全面集成至比亚迪DiLink智能座舱系统,覆盖仰望、腾势、方程豹、王朝、海洋五大品牌所有在售车型,成为全球车企中智能座舱大模型落地规模最大、覆盖最广的案例。
豆包大模型深度嵌入,座舱交互全面升级
此次合作并非简单语音助手叠加,而是将豆包大模型能力深度融合至座舱核心体验:
- 智能语音交互:支持全场景连续对话、多意图识别与上下文理解,用户可自然表达如“调低空调、放点轻音乐,再导航到最近的充电站”;
- 个性化内容推荐:基于用户偏好与行程,主动推荐音乐、播客、短视频及本地生活服务;
- 出行服务闭环:打通充电、停车、餐饮等生态,实现“说走就走”的一站式服务调度。
不止语音,全场景智能体验覆盖
合作还延伸至多个关键功能模块:
- 全场景数字钥匙:支持手机、手表、NFC等多种无感进入方式,结合AI身份识别自动匹配座椅、氛围灯等个性化设置;
- 座舱娱乐升级:通过多模态理解,实现“看图识物”“语音点播”“AR导航解说”等沉浸式体验;
- 跨端协同:与用户手机、家居IoT设备联动,实现“离车上车无缝续享”。
为何选择豆包?场景协同成关键
分析认为,比亚迪选择豆包大模型,看中其在内容生态、多模态理解与亿级用户场景验证上的独特优势。豆包App月活超 2 亿,其推荐算法、语音交互与短视频理解能力已深度打磨,能快速赋能汽车高频使用场景。而火山引擎则提供端云协同、低延时推理与私有化部署能力,确保数据安全与响应速度。
行业意义:大模型上车进入“规模化交付”阶段
此前,AI大模型上车多限于旗舰车型试点。而比亚迪此次全系标配,标志着大模型座舱正从“技术亮点”转向“基础配置”。在智能电动车同质化加剧的背景下,以大模型驱动的个性化、主动式服务,或将成为下一阶段核心竞争力。
AIbase认为,比亚迪与火山引擎的联手,不仅是一次技术集成,更是中国智能汽车生态自主化的重要一步——从芯片到操作系统,再到大模型,本土技术栈正全面接管智能座舱“大脑”。而这场由千万级量产车验证的AI落地,或将重新定义全球智能出行体验的标准。
via AI新闻资讯 (author: AI Base)
智能座舱进入“全系AI化”时代。在近日举行的火山引擎FORCE原动力大会上,比亚迪与火山引擎正式宣布达成深度合作,将字节跳动豆包大模型全面集成至比亚迪DiLink智能座舱系统,覆盖仰望、腾势、方程豹、王朝、海洋五大品牌所有在售车型,成为全球车企中智能座舱大模型落地规模最大、覆盖最广的案例。
豆包大模型深度嵌入,座舱交互全面升级
此次合作并非简单语音助手叠加,而是将豆包大模型能力深度融合至座舱核心体验:
- 智能语音交互:支持全场景连续对话、多意图识别与上下文理解,用户可自然表达如“调低空调、放点轻音乐,再导航到最近的充电站”;
- 个性化内容推荐:基于用户偏好与行程,主动推荐音乐、播客、短视频及本地生活服务;
- 出行服务闭环:打通充电、停车、餐饮等生态,实现“说走就走”的一站式服务调度。
不止语音,全场景智能体验覆盖
合作还延伸至多个关键功能模块:
- 全场景数字钥匙:支持手机、手表、NFC等多种无感进入方式,结合AI身份识别自动匹配座椅、氛围灯等个性化设置;
- 座舱娱乐升级:通过多模态理解,实现“看图识物”“语音点播”“AR导航解说”等沉浸式体验;
- 跨端协同:与用户手机、家居IoT设备联动,实现“离车上车无缝续享”。
为何选择豆包?场景协同成关键
分析认为,比亚迪选择豆包大模型,看中其在内容生态、多模态理解与亿级用户场景验证上的独特优势。豆包App月活超 2 亿,其推荐算法、语音交互与短视频理解能力已深度打磨,能快速赋能汽车高频使用场景。而火山引擎则提供端云协同、低延时推理与私有化部署能力,确保数据安全与响应速度。
行业意义:大模型上车进入“规模化交付”阶段
此前,AI大模型上车多限于旗舰车型试点。而比亚迪此次全系标配,标志着大模型座舱正从“技术亮点”转向“基础配置”。在智能电动车同质化加剧的背景下,以大模型驱动的个性化、主动式服务,或将成为下一阶段核心竞争力。
AIbase认为,比亚迪与火山引擎的联手,不仅是一次技术集成,更是中国智能汽车生态自主化的重要一步——从芯片到操作系统,再到大模型,本土技术栈正全面接管智能座舱“大脑”。而这场由千万级量产车验证的AI落地,或将重新定义全球智能出行体验的标准。
via AI新闻资讯 (author: AI Base)