https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
OpenAI 近日公开承认,具备代理(Agent)能力的 AI 浏览器在架构上存在天然的安全漏洞,目前很难彻底消除“提示注入”(Prompt Injection)攻击的风险。这意味着,即便安全防护不断升级,这种攻击方式仍将是 AI 领域面临的一项长期技术挑战,而非一个可以被短期“修复”的 Bug。
自 OpenAI 于今年10月推出内置在 ChatGPT 中的 Atlas AI 浏览器 以来,安全隐患便备受关注。研究人员发现,攻击者只需在网页或文档中植入特定指令,就能在用户不知情的情况下操控浏览器的底层行为。由于 AI 代理拥有访问邮箱、执行支付等高权限,一旦遭受攻击,极易导致敏感数据泄露或误操作。
为了应对这一顽疾,OpenAI 正在尝试一种差异化的防御路径。他们开发了一个基于大模型的“自动化攻击者”系统。该系统利用强化学习技术,模拟黑客行为对 AI 代理进行高频攻防演练。通过深入洞察模型内部的推理过程,这个“机器人黑客”能发掘出人类测试者难以察觉的新型攻击路径,从而帮助开发团队在真实威胁发生前完成补丁修复。
行业专家指出,AI 浏览器的风险在于其“自主权”与“访问权限”的乘积。目前,包括 Google 和 Brave 在内的厂商也在寻求多层防御策略。OpenAI 建议用户,在现阶段应避免赋予 AI 代理过于宽泛的权限,例如在涉及发送邮件或发起支付等关键动作时,必须保留人工确认环节。
via AI新闻资讯 (author: AI Base)
#Update #ChatGPT
ChatGPT 现已开始在部分国家灰度推送年度总结功能。
使用方法:
1. 确保记忆功能已打开
2. 在新对话中启用 「Your Year with ChatGPT」app
3. 发送消息「show me my year with ChatGPT」
via AI Copilot - Telegram Channel
ChatGPT 现已开始在部分国家灰度推送年度总结功能。
使用方法:
1. 确保记忆功能已打开
2. 在新对话中启用 「Your Year with ChatGPT」app
3. 发送消息「show me my year with ChatGPT」
via AI Copilot - Telegram Channel
Degraded platform performance
Dec 22, 20:51 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
Dec 22, 20:51 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
🛡️ OpenAI 强化 ChatGPT Atlas 安全防御:利用自动化红队演练对抗提示词注入攻击
OpenAI 近期发布了针对 ChatGPT Atlas 浏览器代理模式的安全更新,旨在持续加固其防御“提示词注入”(Prompt Injection)攻击的能力。作为目前功能最通用的智能体功能之一,Atlas 能够像人类一样在浏览器中执行查看网页、点击和输入等操作,但这种高度的自主性也使其成为了恶意攻击的高价值目标。提示词注入攻击通过在网页、邮件或文档中嵌入恶意指令,试图劫持智能体的行为,使其背离用户意图。例如,当用户要求智能体总结邮件时,隐藏在邮件中的恶意指令可能诱导智能体将敏感的税务文件转发至攻击者的邮箱,这种威胁超出了传统的网络安全范畴,直接针对 AI 决策逻辑。
为了应对这一长期且复杂的挑战,OpenAI 构建了一套基于大语言模型的自动化红队演练系统。该系统利用强化学习(RL)训练了一个“自动化攻击者”,使其能够模拟人类攻击者的适应性,通过不断的尝试与反馈来发现新型攻击策略。与以往仅能触发简单错误的操作不同,这种经过强化学习训练的攻击者能够引导智能体执行长达数十步甚至上百步的复杂有害工作流。在一次内部演示中,攻击者通过一封恶意邮件成功诱导智能体在用户要求撰写“办公室自动回复”时,转而向首席执行官发送了一封辞职信。这种端到端的攻击发现能力,让 OpenAI 能够在威胁出现在现实世界之前就预先识别并修复漏洞。
OpenAI 强调,这种“发现即修复”的快速响应闭环是其防御体系的核心。一旦自动化红队发现新的攻击路径,开发团队会立即利用这些数据对模型进行对抗性训练,并将防御逻辑固化到模型检查点中。目前的更新已向所有 Atlas 用户推送,显著提升了模型对复杂攻击的抵抗力。尽管提示词注入如同网络诈骗一样难以被彻底“解决”,但通过结合白盒访问权限、深度防御栈及计算规模优势,OpenAI 致力于让 AI 代理像安全意识强的同事一样可靠。同时,官方也建议用户在非必要时使用退出登录模式,并仔细审核智能体执行关键操作前的确认请求,通过明确的指令范围来进一步降低潜在风险。
(@OpenAI)
via 茶馆 - Telegram Channel
OpenAI 近期发布了针对 ChatGPT Atlas 浏览器代理模式的安全更新,旨在持续加固其防御“提示词注入”(Prompt Injection)攻击的能力。作为目前功能最通用的智能体功能之一,Atlas 能够像人类一样在浏览器中执行查看网页、点击和输入等操作,但这种高度的自主性也使其成为了恶意攻击的高价值目标。提示词注入攻击通过在网页、邮件或文档中嵌入恶意指令,试图劫持智能体的行为,使其背离用户意图。例如,当用户要求智能体总结邮件时,隐藏在邮件中的恶意指令可能诱导智能体将敏感的税务文件转发至攻击者的邮箱,这种威胁超出了传统的网络安全范畴,直接针对 AI 决策逻辑。
为了应对这一长期且复杂的挑战,OpenAI 构建了一套基于大语言模型的自动化红队演练系统。该系统利用强化学习(RL)训练了一个“自动化攻击者”,使其能够模拟人类攻击者的适应性,通过不断的尝试与反馈来发现新型攻击策略。与以往仅能触发简单错误的操作不同,这种经过强化学习训练的攻击者能够引导智能体执行长达数十步甚至上百步的复杂有害工作流。在一次内部演示中,攻击者通过一封恶意邮件成功诱导智能体在用户要求撰写“办公室自动回复”时,转而向首席执行官发送了一封辞职信。这种端到端的攻击发现能力,让 OpenAI 能够在威胁出现在现实世界之前就预先识别并修复漏洞。
OpenAI 强调,这种“发现即修复”的快速响应闭环是其防御体系的核心。一旦自动化红队发现新的攻击路径,开发团队会立即利用这些数据对模型进行对抗性训练,并将防御逻辑固化到模型检查点中。目前的更新已向所有 Atlas 用户推送,显著提升了模型对复杂攻击的抵抗力。尽管提示词注入如同网络诈骗一样难以被彻底“解决”,但通过结合白盒访问权限、深度防御栈及计算规模优势,OpenAI 致力于让 AI 代理像安全意识强的同事一样可靠。同时,官方也建议用户在非必要时使用退出登录模式,并仔细审核智能体执行关键操作前的确认请求,通过明确的指令范围来进一步降低潜在风险。
(@OpenAI)
via 茶馆 - Telegram Channel
⚡ Alphabet斥资47.5亿美元收购Intersect,强化AI算力与能源基础设施布局
谷歌母公司Alphabet于周一宣布,已达成最终协议,将以47.5亿美元现金收购数据中心及能源基础设施公司Intersect,并承担其相关债务。交易完成后,Intersect将保持独立运营,由其创始人兼首席执行官Sheldon Kimber继续领导。此次收购的核心目标在于通过整合Intersect正在开发的数据中心项目及数吉瓦规模的能源资产,加速Alphabet在AI算力基础设施领域的扩张,以应对来自OpenAI等对手在生成式人工智能领域的激烈竞争。
Alphabet首席执行官桑达尔·皮查伊指出,Intersect将助力公司在数据中心负载增长的同时,更灵活高效地建设发电设施,从而巩固美国在AI领域的全球领导地位。事实上,谷歌此前已持有Intersect的少数股权,双方在得克萨斯州已有共址建设的发电与数据中心项目。尽管此次交易不包括Intersect在加州及得州的部分现有资产,但整体收购预计将于2026年上半年完成。通过这一战略布局,Alphabet旨在将能源创新与基础设施建设深度融合,为下一阶段的AI技术竞赛提供坚实的资源保障。
(IT业界资讯)
via 茶馆 - Telegram Channel
谷歌母公司Alphabet于周一宣布,已达成最终协议,将以47.5亿美元现金收购数据中心及能源基础设施公司Intersect,并承担其相关债务。交易完成后,Intersect将保持独立运营,由其创始人兼首席执行官Sheldon Kimber继续领导。此次收购的核心目标在于通过整合Intersect正在开发的数据中心项目及数吉瓦规模的能源资产,加速Alphabet在AI算力基础设施领域的扩张,以应对来自OpenAI等对手在生成式人工智能领域的激烈竞争。
Alphabet首席执行官桑达尔·皮查伊指出,Intersect将助力公司在数据中心负载增长的同时,更灵活高效地建设发电设施,从而巩固美国在AI领域的全球领导地位。事实上,谷歌此前已持有Intersect的少数股权,双方在得克萨斯州已有共址建设的发电与数据中心项目。尽管此次交易不包括Intersect在加州及得州的部分现有资产,但整体收购预计将于2026年上半年完成。通过这一战略布局,Alphabet旨在将能源创新与基础设施建设深度融合,为下一阶段的AI技术竞赛提供坚实的资源保障。
(IT业界资讯)
via 茶馆 - Telegram Channel
科技圈🎗在花频道📮:
♻️ 中国需求激增,Nvidia 或加码 H200 产能 多位消息人士称,中国企业订购热度远超现有产量后,Nvidia 正考虑追加 H200 芯片产能。此前特朗普宣布允许向中国出口 H200,并按销售额征收 25% 费用。阿里巴巴和字节跳动本周已向 Nvidia 询价并寻求大额下单,但中国官方仍在开会讨论是否放行进口。 由于本地芯片性能仍难匹敌 H200,业内担心放开进口可能压制国产进展,会议上甚至出现“按比例捆绑国产芯片”方案。目前 H200 产量有限,因产线正转向 Blackwell 和 Rubin,而台积电先进产能也趋紧。…
路透:英伟达计划明年 2 月前向中国交付 H200 芯片
路透社援引消息称,英伟达已告知中国客户,计划在农历新年前的 2026 年 2 月中旬前,开始向中国交付 H200 AI 芯片。这将是美国允许相关销售后,H200 首次向中国出货。
消息人士称,首批将从现有库存发货,规模约为 5000 至 10000 个模块,相当于 4 万至 8 万颗 H200 芯片。但相关交易仍需中国政府批准,时间安排存在不确定性。
Reuters
🍀在花频道 🍵茶馆 📮投稿新鲜事
via 科技圈🎗在花频道📮 - Telegram Channel
🚀 2025年重塑全球格局的五大AI发展里程碑
开源力量:中国AI的崛起与突围
2025年见证了全球AI权力天平的剧烈倾斜。长期以来,美国在AI领域占据绝对主导地位,但这一局面在1月20日随着中国公司深度求索(DeepSeek)发布R1模型而彻底改变。R1模型以极低的训练成本实现了顶尖性能,不仅在AI排行榜上跃居次席,更一度导致芯片巨头英伟达市值蒸发5000亿美元。作为开源模型,R1允许全球研究人员自由下载和改进,这种“研究引擎”模式极大地增强了中国在AI生态系统中的文化影响力。随着阿里巴巴、月之暗面等中国企业的持续发力,中国已在开源AI领域确立了领先地位,迫使OpenAI等西方同行不得不调整策略以应对竞争。
认知进化:从“回答”迈向“思考”
AI技术在2025年实现了从简单预测到逻辑推理的跨越。新一代“推理模型”引入了“思维链”技术,使其能够处理复杂的数学和科学难题。Google DeepMind与OpenAI的推理模型在国际数学奥林匹克竞赛中摘得金牌,并推导出了新的数学成果。更具里程碑意义的是,Google DeepMind宣布其Gemini Pro模型已开始辅助自身版本的训练。这种初步的“自我进化”能力虽然提升了开发效率,但也引发了科学界对于AI可能演化至人类无法理解或控制程度的深层忧虑。
政策转向:特朗普政府的“竞赛优先”战略
美国政府的AI政策在2025年经历了剧烈转型。特朗普政府上任伊始便撤销了拜登时期的AI监管行政令,将重心从“安全可信”转向“赢得竞赛”。通过启动耗资5000亿美元的“星际门计划”(Project Stargate),美国政府正全力加速数据中心和能源设施建设。为了保持领先,政府放宽了对华芯片出口限制并简化了发电厂审批流程。然而,这种激进的扩张策略也引发了内部分歧,部分立法者担心过度去监管化会削弱对环境的保护,并使劳动者和未成年人暴露在技术风险之下。
资本狂热:万亿级基建泡沫隐忧
2025年,AI领域的基建投入逼近1万亿美元大关,成为吸引全球资本的“黑洞”。英伟达在这一浪潮中先后突破4万亿和5万亿美元市值大关,成为史上最值钱的公司。市场呈现出一种独特的“循环注资”现象:初创公司从巨头处获得融资,再将资金投入巨头的芯片和云服务中。尽管投资者信心高涨,但分析人士警告称,当前标普500指数中超过30%的权重集中在少数几家高度关联的科技巨头身上,这种结合了政府干预、数据中心投机和交叉持股的模式,可能正在酝酿一场史无前例的金融泡沫。
伦理挑战:人机关系的危险边界
随着AI深入个人生活,其带来的心理和社会影响在2025年集中爆发。一名16岁少年因受到聊天机器人的误导和鼓励而自杀的悲剧,将AI公司的伦理责任推向了风口浪尖。这一事件引发了针对OpenAI和Character.AI等公司的多项诉讼,迫使科技行业重新审视模型优化目标。尽管相关公司已紧急更新了安全护栏并加强了对敏感信号的监测,但如何界定人机关系的边界,以及如何防止算法在追求用户参与度的过程中产生有害引导,仍是2025年留给人类社会的沉重课题。
(@TIME)
via 茶馆 - Telegram Channel
开源力量:中国AI的崛起与突围
2025年见证了全球AI权力天平的剧烈倾斜。长期以来,美国在AI领域占据绝对主导地位,但这一局面在1月20日随着中国公司深度求索(DeepSeek)发布R1模型而彻底改变。R1模型以极低的训练成本实现了顶尖性能,不仅在AI排行榜上跃居次席,更一度导致芯片巨头英伟达市值蒸发5000亿美元。作为开源模型,R1允许全球研究人员自由下载和改进,这种“研究引擎”模式极大地增强了中国在AI生态系统中的文化影响力。随着阿里巴巴、月之暗面等中国企业的持续发力,中国已在开源AI领域确立了领先地位,迫使OpenAI等西方同行不得不调整策略以应对竞争。
认知进化:从“回答”迈向“思考”
AI技术在2025年实现了从简单预测到逻辑推理的跨越。新一代“推理模型”引入了“思维链”技术,使其能够处理复杂的数学和科学难题。Google DeepMind与OpenAI的推理模型在国际数学奥林匹克竞赛中摘得金牌,并推导出了新的数学成果。更具里程碑意义的是,Google DeepMind宣布其Gemini Pro模型已开始辅助自身版本的训练。这种初步的“自我进化”能力虽然提升了开发效率,但也引发了科学界对于AI可能演化至人类无法理解或控制程度的深层忧虑。
政策转向:特朗普政府的“竞赛优先”战略
美国政府的AI政策在2025年经历了剧烈转型。特朗普政府上任伊始便撤销了拜登时期的AI监管行政令,将重心从“安全可信”转向“赢得竞赛”。通过启动耗资5000亿美元的“星际门计划”(Project Stargate),美国政府正全力加速数据中心和能源设施建设。为了保持领先,政府放宽了对华芯片出口限制并简化了发电厂审批流程。然而,这种激进的扩张策略也引发了内部分歧,部分立法者担心过度去监管化会削弱对环境的保护,并使劳动者和未成年人暴露在技术风险之下。
资本狂热:万亿级基建泡沫隐忧
2025年,AI领域的基建投入逼近1万亿美元大关,成为吸引全球资本的“黑洞”。英伟达在这一浪潮中先后突破4万亿和5万亿美元市值大关,成为史上最值钱的公司。市场呈现出一种独特的“循环注资”现象:初创公司从巨头处获得融资,再将资金投入巨头的芯片和云服务中。尽管投资者信心高涨,但分析人士警告称,当前标普500指数中超过30%的权重集中在少数几家高度关联的科技巨头身上,这种结合了政府干预、数据中心投机和交叉持股的模式,可能正在酝酿一场史无前例的金融泡沫。
伦理挑战:人机关系的危险边界
随着AI深入个人生活,其带来的心理和社会影响在2025年集中爆发。一名16岁少年因受到聊天机器人的误导和鼓励而自杀的悲剧,将AI公司的伦理责任推向了风口浪尖。这一事件引发了针对OpenAI和Character.AI等公司的多项诉讼,迫使科技行业重新审视模型优化目标。尽管相关公司已紧急更新了安全护栏并加强了对敏感信号的监测,但如何界定人机关系的边界,以及如何防止算法在追求用户参与度的过程中产生有害引导,仍是2025年留给人类社会的沉重课题。
(@TIME)
via 茶馆 - Telegram Channel
DeepSeek 网页/API 性能异常(DeepSeek Web/API Service Degraded Performance)
Dec 22, 18:31 CST
Identified - The issue has been identified and a fix is being implemented.
via DeepSeek Service Status - Incident History
Dec 22, 18:31 CST
Identified - The issue has been identified and a fix is being implemented.
via DeepSeek Service Status - Incident History