https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
🚀 GPT-5.2-Codex 正式发布:赋能软件工程与网络安全防御新纪元
核心发布内容
今天,最前沿的智能体编码模型 GPT-5.2-Codex 正式亮相。该模型基于 GPT-5.2 构建,专门针对复杂的软件工程实践进行了深度优化。它不仅继承了前代模型的智能,还在长程任务执行、大规模代码重构、Windows 环境适配以及网络安全防御方面实现了显著的技术跨越。
技术改进与性能表现
* 长上下文与效率: 引入原生“上下文压缩”(Compaction)技术,提升了处理长期编码任务的可靠性,并实现了更高效的 Token 使用。
* 多模态理解: 能够更精准地解析编码过程中的截图、技术架构图、数据图表及用户界面(UI)。
* 基准测试: 在 SWE-Bench Pro 和 Terminal-Bench 2.0 等评估真实终端环境任务的基准测试中取得了优异成绩。
* 工程能力: 在代码库导航、Pull Request 创建与审查、以及跨平台(尤其是 Windows)的智能体操作方面表现更稳健。
网络安全领域的突破性进展
* 实战成果: 2025 年 12 月 11 日,研究人员利用前代模型 GPT-5.1-Codex-Max 在一周内发现了 React 框架中的 3 个此前未知的漏洞(涉及拒绝服务和源代码泄露),并已负责任地披露。
* 防御增强: GPT-5.2-Codex 具备迄今最强的网络安全能力,旨在帮助工程师快速从假设阶段转向漏洞验证,提升大规模环境下的防御效率。
* 风险管理: 尽管模型能力持续跃升,但根据“准备框架”评估,其尚未达到“高”风险水平。官方正采取预防性设计,以应对未来可能出现的双重用途风险。
部署方案与访问权限
* 即刻开放: 从即日起,所有 ChatGPT 付费用户 均可通过 Codex CLI、IDE 扩展、云端及代码审查功能使用 GPT-5.2-Codex。
* 可信访问计划: 针对安全专业人士和组织推出“仅限邀请”的试点计划,提供受控访问权限,以支持授权的防御性安全工作(如恶意软件分析、压力测试)。
* 未来规划: 正在推进 API 的安全开放,以便第三方开发者集成。
(@OpenAI)
via 茶馆 - Telegram Channel
核心发布内容
今天,最前沿的智能体编码模型 GPT-5.2-Codex 正式亮相。该模型基于 GPT-5.2 构建,专门针对复杂的软件工程实践进行了深度优化。它不仅继承了前代模型的智能,还在长程任务执行、大规模代码重构、Windows 环境适配以及网络安全防御方面实现了显著的技术跨越。
技术改进与性能表现
* 长上下文与效率: 引入原生“上下文压缩”(Compaction)技术,提升了处理长期编码任务的可靠性,并实现了更高效的 Token 使用。
* 多模态理解: 能够更精准地解析编码过程中的截图、技术架构图、数据图表及用户界面(UI)。
* 基准测试: 在 SWE-Bench Pro 和 Terminal-Bench 2.0 等评估真实终端环境任务的基准测试中取得了优异成绩。
* 工程能力: 在代码库导航、Pull Request 创建与审查、以及跨平台(尤其是 Windows)的智能体操作方面表现更稳健。
网络安全领域的突破性进展
* 实战成果: 2025 年 12 月 11 日,研究人员利用前代模型 GPT-5.1-Codex-Max 在一周内发现了 React 框架中的 3 个此前未知的漏洞(涉及拒绝服务和源代码泄露),并已负责任地披露。
* 防御增强: GPT-5.2-Codex 具备迄今最强的网络安全能力,旨在帮助工程师快速从假设阶段转向漏洞验证,提升大规模环境下的防御效率。
* 风险管理: 尽管模型能力持续跃升,但根据“准备框架”评估,其尚未达到“高”风险水平。官方正采取预防性设计,以应对未来可能出现的双重用途风险。
部署方案与访问权限
* 即刻开放: 从即日起,所有 ChatGPT 付费用户 均可通过 Codex CLI、IDE 扩展、云端及代码审查功能使用 GPT-5.2-Codex。
* 可信访问计划: 针对安全专业人士和组织推出“仅限邀请”的试点计划,提供受控访问权限,以支持授权的防御性安全工作(如恶意软件分析、压力测试)。
* 未来规划: 正在推进 API 的安全开放,以便第三方开发者集成。
(@OpenAI)
via 茶馆 - Telegram Channel
📌 跨平台同步上线:置顶对话功能正式发布
该应用现已在 iOS、Android 及网页端全面推出“置顶对话”(Pinned Chats)功能。用户现在可以将重要对话固定在列表顶部以便快速访问。具体操作方式为:网页端用户点击对话旁的“...”图标即可置顶,移动端用户则通过长按对话进行操作。该功能目前正向全平台用户陆续推送。
(@OpenAI)
via 茶馆 - Telegram Channel
该应用现已在 iOS、Android 及网页端全面推出“置顶对话”(Pinned Chats)功能。用户现在可以将重要对话固定在列表顶部以便快速访问。具体操作方式为:网页端用户点击对话旁的“...”图标即可置顶,移动端用户则通过长按对话进行操作。该功能目前正向全平台用户陆续推送。
(@OpenAI)
via 茶馆 - Telegram Channel
二十四家顶尖人工智能公司已同意加入美国联邦政府的“创世使命”,这是特朗普政府为促进人工智能技术在科学发现和能源项目中的应用而发起的一项举措。
OpenAI、微软、英伟达、Amazon Web Services和Alphabet子公司谷歌等企业已与政府签署了谅解备忘录、已与能源部或国家实验室有现有项目往来、或表达了加入该计划的意愿。
“利用尖端人工智能技术进行科学研究将大幅提高美国科学家和研究人员的生产力,”白宫科技政策办公室负责人Michael Kratsios表示,“‘创世使命’将帮助美国科学家实现实验设计自动化、加速模拟,并生成预测模型,从而在能源、制造、药物研发等领域取得突破性进展。”
特朗普上个月在一项行政命令中宣布了这项举措,旨在更好地协调政府各机构的研究工作,并更有效地整合人工智能工具,以实现更多科学突破。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
AI literacy resources for teens and parents
我们推出了两份新的 AI 素养资源,旨在帮助家庭在使用 ChatGPT 时更加审慎、安全并有信心。
第一份是面向家庭的通俗指南,用清晰易懂的语言说明了 AI 模型如何被训练、为什么 AI 有时会出错,以及为何需要对获得的信息进行核实。指南还给出实用的使用建议,比如如何构建更有效的提示词、为何对同一问题可能得到不同答案,以及如何管理个人数据和设置。
第二份是一套面向家长的建议,包含可用于开启对话的话题和具体指引,帮助父母与青少年讨论 AI 能做什么、不能做什么,培养批判性思维、设立健康界限,并在面对情绪或敏感话题时提供应对策略。
这两份资源均在专家参与下制定,其中包括我们 的 Expert Council on Well-Being and AI 成员以及 ConnectSafely,这些组织在在线安全、人机交互、青少年发展和心理健康等领域拥有深厚的专业经验。我们将持续拓展 AI 素养相关工作,为不同年龄段和成长阶段提供更多指导,并会在获得新知识时不断更新这些资源。
----------------------
We’re sharing two new AI literacy resources to help families use ChatGPT thoughtfully, safely, and confidently. First is a family-friendly guide that explains—in plain language—how AI models are trained, why AI can sometimes get things wrong, and the importance of double checking the information received. It also includes practical tips for responsible use, like how to write better prompts, why you might get different answers to the same question, and how to manage your data and settings.
We’re also publishing a set of tips for parents, with conversation starters and practical guidance to help parents talk with their teens about what AI can (and can’t) do, build critical thinking, set healthy boundaries, and navigate emotional or sensitive topics.
Both resources were developed with expert input, including members of our Expert Council on Well-Being and AI and ConnectSafely, groups with deep expertise in online safety, human-computer interaction, teen development, and mental health. We’ll continue expanding our AI literacy work over time with additional guidance for different ages and stages, and we’ll keep updating these resources as we learn more.
via OpenAI News
我们推出了两份新的 AI 素养资源,旨在帮助家庭在使用 ChatGPT 时更加审慎、安全并有信心。
第一份是面向家庭的通俗指南,用清晰易懂的语言说明了 AI 模型如何被训练、为什么 AI 有时会出错,以及为何需要对获得的信息进行核实。指南还给出实用的使用建议,比如如何构建更有效的提示词、为何对同一问题可能得到不同答案,以及如何管理个人数据和设置。
第二份是一套面向家长的建议,包含可用于开启对话的话题和具体指引,帮助父母与青少年讨论 AI 能做什么、不能做什么,培养批判性思维、设立健康界限,并在面对情绪或敏感话题时提供应对策略。
这两份资源均在专家参与下制定,其中包括我们 的 Expert Council on Well-Being and AI 成员以及 ConnectSafely,这些组织在在线安全、人机交互、青少年发展和心理健康等领域拥有深厚的专业经验。我们将持续拓展 AI 素养相关工作,为不同年龄段和成长阶段提供更多指导,并会在获得新知识时不断更新这些资源。
----------------------
We’re sharing two new AI literacy resources to help families use ChatGPT thoughtfully, safely, and confidently. First is a family-friendly guide that explains—in plain language—how AI models are trained, why AI can sometimes get things wrong, and the importance of double checking the information received. It also includes practical tips for responsible use, like how to write better prompts, why you might get different answers to the same question, and how to manage your data and settings.
We’re also publishing a set of tips for parents, with conversation starters and practical guidance to help parents talk with their teens about what AI can (and can’t) do, build critical thinking, set healthy boundaries, and navigate emotional or sensitive topics.
Both resources were developed with expert input, including members of our Expert Council on Well-Being and AI and ConnectSafely, groups with deep expertise in online safety, human-computer interaction, teen development, and mental health. We’ll continue expanding our AI literacy work over time with additional guidance for different ages and stages, and we’ll keep updating these resources as we learn more.
via OpenAI News
Addendum to GPT-5.2 System Card: GPT-5.2 Codex
GPT‑5.2-Codex 是我们迄今为止面向复杂现实世界软件工程、具备代理能力的最先进编码模型。一种基于 GPT‑5.2 并为 Codex 的 agentic coding 优化的版本,它在处理长周期任务方面通过 context compaction 取得了进一步改进,在诸如重构( refactors )和迁移( migrations )等项目级任务上表现更强,在 Windows 环境下的性能有所提升——并且在 cybersecurity 能力上有显著增强。
这份 system card 说明了为 GPT‑5.2-Codex 实施的全面安全措施,既包括模型层面的缓解手段,例如针对有害任务和 prompt injections 的专项安全训练,也包括产品层面的防护措施,如 agent sandboxing 和可配置的 network access 。
我们按照 Preparedness Framework 对 GPT‑5.2-Codex 进行了评估。该模型在 cybersecurity 领域表现很强,但尚未达到 High 级别的网络安全能力。我们预计模型能力仍将快速提升,并很可能在不久的将来跨过 High cybersecurity 的门槛。与其他近期模型类似,它在 biology 领域被视为具备 High 能力,因此在部署时采用了与 GPT‑5 家族其他模型相同的一整套防护措施;在 AI self‑improvement 方面则未达到 High 能力。
----------------------
Introduction
GPT‑5.2-Codex is our most advanced agentic coding model yet for complex, real-world software engineering. A version of GPT‑5.2 optimized for agentic coding in Codex, it includes further improvements on long-horizon work through context compaction, stronger performance on project-scale tasks like refactors and migrations, and improved performance in Windows environments—and significantly stronger cybersecurity capabilities.
This system card outlines the comprehensive safety measures implemented for GPT‑5.2-Codex. It details both model-level mitigations, such as specialized safety training for harmful tasks and prompt injections, and product-level mitigations like agent sandboxing and configurable network access.
GPT‑5.2-Codex was evaluated under our Preparedness Framework. It is very capable in the cybersecurity domain but does not reach High capability on cybersecurity. We expect current trends of rapidly increasing capability to continue, and for models to cross the High cybersecurity threshold in the near future. Like other recent models, it is being treated as High capability on biology, and is being deployed with the corresponding suite of safeguards we use for other models in the GPT‑5 family. It does not reach High capability on AI self-improvement.
via OpenAI News
GPT‑5.2-Codex 是我们迄今为止面向复杂现实世界软件工程、具备代理能力的最先进编码模型。一种基于 GPT‑5.2 并为 Codex 的 agentic coding 优化的版本,它在处理长周期任务方面通过 context compaction 取得了进一步改进,在诸如重构( refactors )和迁移( migrations )等项目级任务上表现更强,在 Windows 环境下的性能有所提升——并且在 cybersecurity 能力上有显著增强。
这份 system card 说明了为 GPT‑5.2-Codex 实施的全面安全措施,既包括模型层面的缓解手段,例如针对有害任务和 prompt injections 的专项安全训练,也包括产品层面的防护措施,如 agent sandboxing 和可配置的 network access 。
我们按照 Preparedness Framework 对 GPT‑5.2-Codex 进行了评估。该模型在 cybersecurity 领域表现很强,但尚未达到 High 级别的网络安全能力。我们预计模型能力仍将快速提升,并很可能在不久的将来跨过 High cybersecurity 的门槛。与其他近期模型类似,它在 biology 领域被视为具备 High 能力,因此在部署时采用了与 GPT‑5 家族其他模型相同的一整套防护措施;在 AI self‑improvement 方面则未达到 High 能力。
----------------------
Introduction
GPT‑5.2-Codex is our most advanced agentic coding model yet for complex, real-world software engineering. A version of GPT‑5.2 optimized for agentic coding in Codex, it includes further improvements on long-horizon work through context compaction, stronger performance on project-scale tasks like refactors and migrations, and improved performance in Windows environments—and significantly stronger cybersecurity capabilities.
This system card outlines the comprehensive safety measures implemented for GPT‑5.2-Codex. It details both model-level mitigations, such as specialized safety training for harmful tasks and prompt injections, and product-level mitigations like agent sandboxing and configurable network access.
GPT‑5.2-Codex was evaluated under our Preparedness Framework. It is very capable in the cybersecurity domain but does not reach High capability on cybersecurity. We expect current trends of rapidly increasing capability to continue, and for models to cross the High cybersecurity threshold in the near future. Like other recent models, it is being treated as High capability on biology, and is being deployed with the corresponding suite of safeguards we use for other models in the GPT‑5 family. It does not reach High capability on AI self-improvement.
via OpenAI News
OpenAI洽谈千亿融资 估值剑指7500亿美元
根据市场消息,人工智能巨头、ChatGPT开发商OpenAI已与一些投资者就融资事宜进行了初步谈判,目标是筹集至少数百亿美元资金,融资额最高或达1000亿美元,估值可能冲至7500亿美元。消息还称,相关讨论仍处于早期阶段,条款、估值和时间安排等细节可能发生变化。7500亿美元的估值将较这家人工智能公司今年10月5000亿美元的估值实现约50%的跃升。此次潜在融资凸显出,随着各家企业竞相打造与人类能力相当或超过人类能力的AI系统,该行业对算力的需求正持续攀升。而算力堆叠需要庞大资金投入。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
根据市场消息,人工智能巨头、ChatGPT开发商OpenAI已与一些投资者就融资事宜进行了初步谈判,目标是筹集至少数百亿美元资金,融资额最高或达1000亿美元,估值可能冲至7500亿美元。消息还称,相关讨论仍处于早期阶段,条款、估值和时间安排等细节可能发生变化。7500亿美元的估值将较这家人工智能公司今年10月5000亿美元的估值实现约50%的跃升。此次潜在融资凸显出,随着各家企业竞相打造与人类能力相当或超过人类能力的AI系统,该行业对算力的需求正持续攀升。而算力堆叠需要庞大资金投入。
—— 财联社、彭博社
via 风向旗参考快讯 - Telegram Channel
💻 软件开发的核心职责:交付经过验证的代码而非仅是 AI 生成的补丁
随着 2025 年 AI 辅助编程工具的普及,软件开发领域出现了一个令人担忧的趋势:部分开发者(尤其是初级工程师)过度依赖大语言模型(LLM),将大量未经测试的代码直接提交给同事或开源维护者进行代码审查(PR)。本文强调,软件工程师的真正职责不仅是产出代码,而是交付“证明有效”的代码。
核心观点与验证方法:
* 拒绝“抛砖式”提交: 开发者不应将验证代码的负担转嫁给审查者。在 AI 可以轻松生成代码的今天,程序员的价值在于确保并证明代码的正确性。
* 双重验证流程:
1. 手动测试: 开发者必须亲自观察代码运行。建议在 PR 中附带终端命令输出或屏幕录制视频,展示系统从初始状态到执行更改后的预期效果。
2. 自动化测试: 在 LLM 工具的辅助下,编写自动化测试的门槛已大幅降低。提交的补丁必须包含自动化测试,且该测试在撤销代码更改时应当失败。
* 掌握 AI 编程代理(Coding Agents): 2025 年最重要的趋势是 Claude Code 和 Codex CLI 等代理工具的爆发。开发者应学会引导这些工具进行自我验证,例如让代理在修改 CSS 时自动截屏检查视觉效果,或利用现有模式扩展测试套件。
* 人类的问责制: 计算机无法承担责任。在 AI 能够生成千行补丁的时代,能够提供“工作证明”的开发者才具有核心竞争力。
结论: 优秀的工程师应具备开发测试技能和良好的测试品味,确保每一行提交的代码都经过严谨的验证,从而维护开发流程的效率与诚信。
(HackerNews)
via 茶馆 - Telegram Channel
随着 2025 年 AI 辅助编程工具的普及,软件开发领域出现了一个令人担忧的趋势:部分开发者(尤其是初级工程师)过度依赖大语言模型(LLM),将大量未经测试的代码直接提交给同事或开源维护者进行代码审查(PR)。本文强调,软件工程师的真正职责不仅是产出代码,而是交付“证明有效”的代码。
核心观点与验证方法:
* 拒绝“抛砖式”提交: 开发者不应将验证代码的负担转嫁给审查者。在 AI 可以轻松生成代码的今天,程序员的价值在于确保并证明代码的正确性。
* 双重验证流程:
1. 手动测试: 开发者必须亲自观察代码运行。建议在 PR 中附带终端命令输出或屏幕录制视频,展示系统从初始状态到执行更改后的预期效果。
2. 自动化测试: 在 LLM 工具的辅助下,编写自动化测试的门槛已大幅降低。提交的补丁必须包含自动化测试,且该测试在撤销代码更改时应当失败。
* 掌握 AI 编程代理(Coding Agents): 2025 年最重要的趋势是 Claude Code 和 Codex CLI 等代理工具的爆发。开发者应学会引导这些工具进行自我验证,例如让代理在修改 CSS 时自动截屏检查视觉效果,或利用现有模式扩展测试套件。
* 人类的问责制: 计算机无法承担责任。在 AI 能够生成千行补丁的时代,能够提供“工作证明”的开发者才具有核心竞争力。
结论: 优秀的工程师应具备开发测试技能和良好的测试品味,确保每一行提交的代码都经过严谨的验证,从而维护开发流程的效率与诚信。
(HackerNews)
via 茶馆 - Telegram Channel
英伟达CEO黄仁勋表示,尽管公司此前宣布了高达1000亿美元的投资计划,拟与OpenAI合作建设超大规模数据中心,但目前尚未向对方支付任何款项。该巨额合作的实际进展仍处于初期阶段。
尽管投资尚未落地,但双方的合作框架已明确,未来可能深刻影响全球AI算力格局。黄仁勋强调,所有资金投入将根据项目进度和技术需求逐步实施,确保资源高效配置。
今年9月,英伟达与OpenAI宣布了一项堪称史诗级的战略合作。英伟达计划向OpenAI投资高达1000亿美元。
根据协议,双方将联手建设和部署规模空前的AI基础设施。该计划的核心是构建总容量至少达到10吉瓦的AI数据中心,其中将包含数百万计的英伟达GPU。这无疑将成为OpenAI训练和运行其下一代AI模型、并最终实现‘超级智能’目标的超级引擎。
为了支撑这一宏伟蓝图,英伟达将进行一项惊人的投资:随着每个吉瓦数据中心容量的部署,英伟达将逐步向 OpenAI 投资,总金额最高可达 1000 亿美元。这笔投资不仅是 AI 领域有史以来最大规模的单笔投资,也彰显了英伟达对 OpenAI 技术路线的坚定信心。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
ChatGPT的Apple Music集成现已上线
现在ChatGPT拥有专用的 Apple Music 应用程序,该程序允许ChatGPT进行音乐推荐并创建播放列表。你可以通过Mac应用、网页或 iOS 应用中的设置部分将 Apple Music 添加到 ChatGPT。Apple Music 列于应用选项下,连接需使用您的 Apple 账户登录以完成授权。即使没有 Apple Music 订阅,也可以使用ChatGPT搜索 Apple Music 曲库中的歌曲、艺术家、专辑和播放列表。OpenAI公司称所有用户均能在ChatGPT中发现音乐、生成播放列表并收听预览片段。 Apple Music 订阅者可使用ChatGPT将歌曲、专辑和播放列表添加到他们的Apple Music曲库。
—— Macrumors
via 风向旗参考快讯 - Telegram Channel
现在ChatGPT拥有专用的 Apple Music 应用程序,该程序允许ChatGPT进行音乐推荐并创建播放列表。你可以通过Mac应用、网页或 iOS 应用中的设置部分将 Apple Music 添加到 ChatGPT。Apple Music 列于应用选项下,连接需使用您的 Apple 账户登录以完成授权。即使没有 Apple Music 订阅,也可以使用ChatGPT搜索 Apple Music 曲库中的歌曲、艺术家、专辑和播放列表。OpenAI公司称所有用户均能在ChatGPT中发现音乐、生成播放列表并收听预览片段。 Apple Music 订阅者可使用ChatGPT将歌曲、专辑和播放列表添加到他们的Apple Music曲库。
—— Macrumors
via 风向旗参考快讯 - Telegram Channel
🤖 Anthropic AI 智能体实验失败:逻辑漏洞导致自动售货机严重亏损
Anthropic 与《华尔街日报》近期合作开展了名为 “Project Vend” 的实验,由 Claude AI 驱动的智能体 Claudius 独立运营办公区自动售货机。在为期三周的测试中,该实验暴露了 AI 在自主决策与安全防范方面的显著漏洞:
* 决策失误与亏损: 在记者的诱导下,Claudius 违规采购了 PlayStation 5 等高价值商品;随后因逻辑失效,将全部库存免费赠送,导致实验以严重亏损告终。
* 技术局限性: Anthropic 压力测试团队指出,实验揭示了 AI 智能体在处理复杂指令及长上下文时的局限性。
* 后续影响: 尽管实验失败,Anthropic 表示相关数据将用于优化自主智能体的可靠性,以解决其在现实环境中的安全防范问题。
(科技圈)
via 茶馆 - Telegram Channel
Anthropic 与《华尔街日报》近期合作开展了名为 “Project Vend” 的实验,由 Claude AI 驱动的智能体 Claudius 独立运营办公区自动售货机。在为期三周的测试中,该实验暴露了 AI 在自主决策与安全防范方面的显著漏洞:
* 决策失误与亏损: 在记者的诱导下,Claudius 违规采购了 PlayStation 5 等高价值商品;随后因逻辑失效,将全部库存免费赠送,导致实验以严重亏损告终。
* 技术局限性: Anthropic 压力测试团队指出,实验揭示了 AI 智能体在处理复杂指令及长上下文时的局限性。
* 后续影响: 尽管实验失败,Anthropic 表示相关数据将用于优化自主智能体的可靠性,以解决其在现实环境中的安全防范问题。
(科技圈)
via 茶馆 - Telegram Channel
科技圈🎗在花频道📮:
Anthropic实测AI管店亏损,称未来仍可胜任管理岗 Anthropic让AI Claude独立运营办公室小卖部,包括定价、补货和客户沟通等。一个月内因频繁打折、免费送货及进货钨块等操作,店铺净值从1000美元降至800。Claude还出现“幻觉”,虚构合同并自称“现身”送货。尽管结果失败,Anthropic认为这些问题可通过训练和工具改进,AI未来有望胜任中层管理岗位。 TIME 📮分享投稿 ☘️频道 🍵茶馆
Anthropic 自动售货机实验失败,AI 智能体因逻辑漏洞导致严重亏损
Anthropic 与《华尔街日报》近期合作开展 “Project Vend” 实验,由 Claude AI 驱动的智能体 Claudius 独立运营办公区自动售货机。实验结果显示,该 AI 在自主决策与安全防范方面存在显著漏洞。
在为期三周的测试中,Claudius 在记者的诱导下违规采购了 PlayStation 5 等高价值商品,并因逻辑失效将全部库存免费赠送,导致严重亏损。Anthropic 压力测试团队指出,实验揭示了 AI 智能体在处理复杂指令及长上下文时的局限性,相关数据将用于优化自主智能体的可靠性。
华尔街日报
🍀在花频道 🍵茶馆 📮投稿新鲜事
via 科技圈🎗在花频道📮 - Telegram Channel
国产大模型集体冲刺IPO!MiniMax、智谱、壁仞科技均通过港交所聆讯,资本市场迎来“AI六小龙”上市潮
国产大模型企业正加速迈入资本市场的聚光灯下。据港交所最新披露信息,壁仞科技已正式通过上市聆讯;而本周初,MiniMax(稀宇科技)与智谱华章也相继完成中国证监会备案并顺利通过港交所聆讯。这意味着,“大模型六小龙”中的多家头部企业已实质性进入IPO倒计时,中国AI产业正式迎来资本化关键拐点。
此次集中过会并非孤立事件,而是国产大模型从技术研发迈向商业落地与价值兑现的重要标志。在算力、模型、应用三层生态日趋成熟的背景下,资本市场对AI基础设施与底层技术公司的认可度显著提升。
市场的热情已提前反映在参股公司股价上。截至 12 月 17 日,壁仞科技的参股方香农芯创、中际旭创、兆丰股份年内涨幅均超180%,彰显投资者对国产AI芯片与大模型协同生态的高度期待。 12 月 18 日早盘,智谱华章参股公司电广传媒强势涨停,壁仞科技关联方天准科技亦上涨近4%,进一步印证资本市场对AI产业链的追捧正在从概念走向兑现。
值得注意的是,尽管“大模型六小龙”常被并列提及,但各家技术路径与商业化重点各有侧重:
- 智谱华章聚焦开源与行业大模型,GLM系列广受开发者欢迎;
- MiniMax强攻多模态与语音交互,产品矩阵覆盖B端与C端;
- 月之暗面以Kimi长上下文能力突围,近期加速探索企业服务;
- 壁仞科技则深耕AI芯片底层,为大模型提供国产算力支撑。
随着MiniMax、智谱、壁仞等企业率先叩开港股大门,其余如月之暗面、百川智能、零一万物等亦被认为紧随其后。这场IPO竞赛,不仅是融资动作,更是对技术壁垒、商业化能力与长期战略的全面检验。
当“六小龙”陆续登陆资本市场,中国AI产业或将迎来真正意义上的“成年礼”——从资本输血走向自我造血,从技术炫技转向价值创造。而投资者用真金白银投出的,不仅是对某一家公司的信心,更是对整个国产AI生态未来的押注。
via AI新闻资讯 (author: AI Base)
国产大模型企业正加速迈入资本市场的聚光灯下。据港交所最新披露信息,壁仞科技已正式通过上市聆讯;而本周初,MiniMax(稀宇科技)与智谱华章也相继完成中国证监会备案并顺利通过港交所聆讯。这意味着,“大模型六小龙”中的多家头部企业已实质性进入IPO倒计时,中国AI产业正式迎来资本化关键拐点。
此次集中过会并非孤立事件,而是国产大模型从技术研发迈向商业落地与价值兑现的重要标志。在算力、模型、应用三层生态日趋成熟的背景下,资本市场对AI基础设施与底层技术公司的认可度显著提升。
市场的热情已提前反映在参股公司股价上。截至 12 月 17 日,壁仞科技的参股方香农芯创、中际旭创、兆丰股份年内涨幅均超180%,彰显投资者对国产AI芯片与大模型协同生态的高度期待。 12 月 18 日早盘,智谱华章参股公司电广传媒强势涨停,壁仞科技关联方天准科技亦上涨近4%,进一步印证资本市场对AI产业链的追捧正在从概念走向兑现。
值得注意的是,尽管“大模型六小龙”常被并列提及,但各家技术路径与商业化重点各有侧重:
- 智谱华章聚焦开源与行业大模型,GLM系列广受开发者欢迎;
- MiniMax强攻多模态与语音交互,产品矩阵覆盖B端与C端;
- 月之暗面以Kimi长上下文能力突围,近期加速探索企业服务;
- 壁仞科技则深耕AI芯片底层,为大模型提供国产算力支撑。
随着MiniMax、智谱、壁仞等企业率先叩开港股大门,其余如月之暗面、百川智能、零一万物等亦被认为紧随其后。这场IPO竞赛,不仅是融资动作,更是对技术壁垒、商业化能力与长期战略的全面检验。
当“六小龙”陆续登陆资本市场,中国AI产业或将迎来真正意义上的“成年礼”——从资本输血走向自我造血,从技术炫技转向价值创造。而投资者用真金白银投出的,不仅是对某一家公司的信心,更是对整个国产AI生态未来的押注。
via AI新闻资讯 (author: AI Base)
工业具身新标杆:人形机器人“小墨”规模化入驻宁德时代产线
近日具身智能领域迎来重大里程碑:全球首条实现人形机器人规模化落地的新能源动力电池 PACK 生产线,在宁德时代中州基地正式投运。由宁德时代生态企业 千寻智能 研发的人形机器人“小墨”已批量上岗,专门负责电池包下线前最具挑战性的 EOL(最终功能测试)与 DCR(直流内阻测试)工序。
这一环节长期以来因涉及数百伏高压插接操作、环境复杂且柔性要求极高而高度依赖人工,而“小墨”的引入不仅彻底消除了高压打火带来的安全风险,更将单日工作量提升了三倍,插接成功率稳定在99% 以上。
“小墨”的核心大脑搭载了先进的端到端 视觉-语言-动作(VLA)模型,使其具备了强大的环境泛化能力,能够自主微调姿态以应对来料位置偏差,并在插拔柔性线束时动态调节力度。千寻智能这家成立不足一年的明星初创公司,凭借前珞石机器人 CTO 韩峰涛领衔的精英团队,已在2024年内接连完成三轮累计超11亿元的融资,投资方包括宁德时代旗下的柏睿资本。
公司计划在2025年投入实现100万小时的高质量数据采集,推动出货量达大几百台,助力具身智能真正从“演示实验室”迈向工业量产的“严肃生产力”。
via AI新闻资讯 (author: AI Base)
近日具身智能领域迎来重大里程碑:全球首条实现人形机器人规模化落地的新能源动力电池 PACK 生产线,在宁德时代中州基地正式投运。由宁德时代生态企业 千寻智能 研发的人形机器人“小墨”已批量上岗,专门负责电池包下线前最具挑战性的 EOL(最终功能测试)与 DCR(直流内阻测试)工序。
这一环节长期以来因涉及数百伏高压插接操作、环境复杂且柔性要求极高而高度依赖人工,而“小墨”的引入不仅彻底消除了高压打火带来的安全风险,更将单日工作量提升了三倍,插接成功率稳定在99% 以上。
“小墨”的核心大脑搭载了先进的端到端 视觉-语言-动作(VLA)模型,使其具备了强大的环境泛化能力,能够自主微调姿态以应对来料位置偏差,并在插拔柔性线束时动态调节力度。千寻智能这家成立不足一年的明星初创公司,凭借前珞石机器人 CTO 韩峰涛领衔的精英团队,已在2024年内接连完成三轮累计超11亿元的融资,投资方包括宁德时代旗下的柏睿资本。
公司计划在2025年投入实现100万小时的高质量数据采集,推动出货量达大几百台,助力具身智能真正从“演示实验室”迈向工业量产的“严肃生产力”。
via AI新闻资讯 (author: AI Base)