https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
两周揪出 100 个漏洞!Claude AI 成了 Firefox 的“最强外挂”

近日,浏览器界发生了一场足以载入网络安全史册的“闪电战”。Mozilla 基金会对外宣布,通过与 AI 巨头 Anthropic 深度合作,在短短 14 天内,利用Claude AI辅助挖掘出 Firefox 浏览器中超过 100 个安全与稳定性漏洞。其中,包含 14 个足以威胁用户安全的高危漏洞,目前已全数修复。

在这场技术秀中,Anthropic 的 Frontier Red Team 扮演了关键角色。他们带着一套全新的 AI 辅助“挖洞”方法找到Mozilla,并将目标锁定在浏览器最核心、也最易受攻击的组件——JavaScript 引擎。

AI 表现出的“专业度”令传统安全界侧目:

● 效率惊人: 14 个高危漏洞最终演变为 22 个独立的 CVE 编号,同时还扫清了 90 个中低优先级缺陷。
● 逻辑缜密: 不同于传统“模糊测试(fuzzing)”靠随机乱试来碰运气,Claude能够理解程序背后的复杂逻辑。它甚至找出了若干传统自动化手段根本无法触及的“逻辑漏洞”,并自动生成了最小化测试用例,手把手教开发人员如何复现并修复。
● 质量极高: Mozilla强调,这次 AI 提交的是实打实的深度报告,完全不同于目前开源社区饱受诟病的“AI 垃圾报告”——那些只是为了骗取漏洞奖金的噪音。

目前,这些安全成果已全部整合进最新的Firefox 148.0版本中。用户只需动动手指完成更新,就能享受到由顶级 AI 亲自“扫过地”的防护层。

Mozilla表示,这次成功的尝试仅仅是个开始。未来,他们计划将 AI 辅助方法常态化,甚至有望将其推广到整个开源生态系统。当传统的安全防护撞上天花板,AI 或许将成为人类守护网络边界的最后一块拼图。

via AI新闻资讯 (author: AI Base)
ChatGPT“成人模式”又跳票!奥特曼:先把智商搞上去,搞颜色再等等

OpenAI再度推迟争议功能:资源优先流向个性化与主动交互

在AI圈,“搞颜色”是否应该成为生产力的一部分,一直是备受争议的话题。曾许诺要让ChatGPT更懂成年人的OpenAI,最近又给满心期待的用户泼了一盆冷水。据IT之家报道,OpenAI官方近日确认,原定于 2026 年第一季度上线的“成人模式”将再次推迟。

这已经不是萨姆·奥尔特曼第一次“食言”了。早在 2025 年底,奥尔特曼就曾提出“把成年人当成年人看待”的原则,打算放宽对情色内容的限制,并计划在 12 月上线。然而,这一计划在内部遭遇了紧急刹车,资源被迅速调配到了更核心的体验升级上。如今,2026 年第一季度已步入尾声,官方依然没有给出一个明确的时间表。

OpenAI发言人在回应中显得十分“官方”且理性。他表示,公司目前的头等大事是提升 AI 的智能水平、改善对话个性,并让交互变得更加主动和个性化。翻译一下就是:想看“辛辣”内容?先等 AI 把脑子练好,把整体体验打磨到位再说。

不过,大家也别以为OpenAI彻底放弃了这个香饽饽。代码考古学家们在ChatGPT的新版本中发现了一串名为“Naughty Chats(调皮对话)”的字符。描述显示,该设置允许 AI 在用户请求时使用更具成人主题的语言,且仅限 18 岁以上用户开启。

为了确保不给未成年人“带坏节奏”,OpenAI在今年 1 月还上线了一套年龄预测工具。这套系统能通过分析你的聊天频率、使用时段来侧绘你的年龄。如果你被判定为“小屁孩”,对不起,即便未来的成人模式上线,你也得通过自拍照完成 Persona 的身份核验才能访问。

从“千呼万唤”到“一再推迟”,OpenAI的犹豫折射出顶级 AI 企业在商业利益与伦理底线之间的艰难拉扯。虽然“更懂人心”的ChatGPT迟到了,但一个更聪明、更主动的 AI 伙伴,或许比单纯的感官刺激更值得等待。

via AI新闻资讯 (author: AI Base)
只需2%参数就能“干翻”GPT-4o?阿里通义千问Qwen 3. 5 小模型杀疯了!

40 亿参数实现“以小博大”,国产大模型开启本地部署新时代

在AI圈,一直流传着“参数量决定智商”的暴力美学。然而,阿里最近发布的通义千问Qwen 3.5系列小模型,却用实力演绎了一场教科书级的“以弱胜强”。其中,仅有 40 亿参数的 Qwen 3.5-4B 在实测中硬刚参数量过千亿的 GPT-4o,不仅没落下风,甚至还小赢了一把。

这场“跨级挑战”由第三方机构 N8 Programs 发起。测试者从 WildChat 数据集中随机抽取了 1000 个真实问答,让 Qwen 3.5-4B 与 GPT-4o 同台竞技,并请出目前公认最强的 Opus 4.6 担任裁判。结果令人大跌眼镜:在这个千轮问答的“竞技场”中,Qwen 3.5-4B 以 499 胜、 431 负、 70 平的战绩力压 GPT-4o。

最扎心的数据在于,GPT-4o 的参数量据传高达 2000 亿,而 Qwen 3.5-4B 的参数量仅为其 2% 左右。这意味着阿里用极简的资源消耗,换取了顶级的逻辑输出。

除了性能强悍,Qwen 3.5 系列的“灵魂”在于其极高的亲和力——本地部署。官方此次一口气推出了0.8B、2B、4B和9B四款尺寸,覆盖了从 IoT 边缘设备到服务器端的所有场景。尤其是 4B 版本,理论上 8GB 显存就能跑起来,推荐 16GB 显存即可丝滑运行。

对于普通用户和开发者来说,这无异于一种“算力解放”。你不再需要动辄数十万元的专业计算卡,在自家的电脑甚至手机端,就能拥有一个性能媲美顶流大模型的“私人助教”。

正如通义千问团队所展示的:模型不是越大越好,能跑在用户手边的 AI,才是真正改变未来的生产力。随着 9B 版本在性能上直接对标 120B 级别的巨型模型,国产大模型正通过这种“降维打击”,让全球开发者看到中国智造的独特爆发力。

via AI新闻资讯 (author: AI Base)
数据中心建设热潮下:美前拘留中心运营商转型“AI 工人营地”

随着人工智能数据中心在全美范围内的扩建,安置数以千计建设工人的需求正催生出一个利润丰厚的新市场。令人关注的是,曾在移民管理领域饱受争议的私营运营商正在这一领域发掘“商机”。

为了在偏远地区快速部署基础设施,开发商日益依赖被称为“工人营地(Man Camps)”的临时社区。这种模式最初起源于偏远油田的工人住宿。例如,在德克萨斯州狄更斯县,一个原本用于比特币挖矿的设施正被改造为 1.6 吉瓦的数据中心,其建设工人便居住在配备了健身房、洗衣房甚至自助牛排餐厅的模块化宿舍单元中。

Target Hospitality 公司目前已签署了价值 1.32 亿美元的合同,负责建设和运营此类营地。该公司首席商务官 Troy Schrenk 将数据中心建设浪潮描述为“史上最大、最可行的项目渠道”。

值得注意的是,Target Hospitality 的背景引发了舆论关注。该公司同时拥有并运营位于德克萨斯州的迪利移民处理中心,该中心专门关押被美国移民及海关执法局(ICE)拘留的家庭。此前,法庭文件曾指控该中心环境恶劣,存在食物霉变以及忽视患病儿童医疗需求等问题。

从“拘留中心”到“AI 工人宿舍”,这种业务模式的无缝切换反映了资源密集型基础设施建设背后的复杂资本逻辑,同时也引发了社会对于此类封闭式营地管理标准与人权保障的讨论。

via AI新闻资讯 (author: AI Base)
🖼 #AI #网站

#AI #网站

Top AI Influencers on X - 发现 X 上的顶级 AI 影响力人物

网站列出了前 300 名 AI 相关账号,按粉丝数降序排名

OpenAI 当值无愧获得榜首

📮投稿 📢频道 💬群聊 🔎索引

via 极客分享 - Telegram Channel
Anthropic 被列为风险实体,OpenAI 迅速“接盘”引发争议

随着美国国防部(DOD)与 AI 初创公司之间的关系骤然紧张,硅谷正面临一场关于“防御性业务”的认知冲击。在过去的一周内,Anthropic 与五角大楼关于 Claude 技术的谈判宣告破裂,随后该公司被正式列入“供应链风险名单”。

面对这一变局,Anthropic 明确表示将在法庭上挑战这一认定。与此同时,竞争对手 OpenAI 迅速填补了真空,宣布与国防部达成合作协议。这一举动在用户群中引发了剧烈反弹,数据显示,在协议官宣后,ChatGPT 的卸载量激增了 295%,而大量流失的用户转头将 Anthropic 的 Claude 推向了应用商店排行榜首位。

本次风波的核心焦点包括:

合同条款之争:争议的根源在于五角大楼试图修改现有合同条款,以获得对 AI 技术更广泛的控制权,这触碰了 Anthropic 关于“非致命性用途”的底线。

高管离职潮:OpenAI 内部也并非风平浪静,至少有一名高管因担心公司在缺乏足够安全护栏的情况下匆忙推进军事交易而愤然辞职。

初创企业的寒蝉效应:业内专家担心,政府单方面修改已签署合同的行为将让更多科技初创公司对国防订单望而却步。

个人恩怨色彩:有报道指出,Anthropic 首席执行官与国防部现任首席技术官(前 Uber 高管)之间的个人矛盾,也为这场公事公办的谈判增添了复杂的人际色彩。

虽然 OpenAI 和 Anthropic 均公开表示会对 AI 的军事用途设置限制,但 Anthropic 在条款细节上的“寸步不让”与 OpenAI 的“高效对接”形成了鲜明对比,这正重新定义着 AI 巨头与国家安全机构之间的博弈规则

via AI新闻资讯 (author: AI Base)
安全领域的“绩效核定”:Anthropic Claude 两周内挖出 Firefox 22 个漏洞

程序员们或许正迎来一份“不请自来”的绩效考核。近日,Anthropic 宣布与 Mozilla 达成合作,利用其 AI 模型 Claude Opus 4.6 对 Firefox 浏览器进行安全审计。令人吃惊的是,在短短两周内,Claude 就发现了 22 个安全漏洞

在这 22 个漏洞中,有 14 个被归类为高危漏洞。据统计,这一数字竟占到了 Mozilla 在 2025 年全年修复的高危漏洞总数的五分之一。这一高效表现不仅展现了 AI 在处理大规模复杂代码库时的卓越能力,也让不少资深安全专家感叹:AI 正在彻底改变漏洞挖掘的经济格局。

与常见的 AI 幻觉不同,这 22 个漏洞均经过了 Mozilla 安全工程师的严格人工验证,确认为真实存在的严重安全隐患。Claude 在识别特定代码路径中的内存安全问题上表现极佳,能够提供比传统模糊测试(Fuzzing)更高质量的信号。

业内人士指出,经验丰富的研究员在两周内通常只能发现 2 到 3 个此类漏洞,AI 的介入将安全审计的效率提升了近 10 倍。

然而,这一突破也引发了社区的忧虑。随着 AI 挖掘漏洞的门槛降低,大量由 AI 生成的低质量漏洞报告正涌向各大开源项目的漏洞赏金计划(Bug Bounty),导致审核成本激增。如何从 AI 制造的“海量信息”中筛选出真正有价值的预警,已成为安全社区面临的新挑战。

via AI新闻资讯 (author: AI Base)
分手预警?英伟达砍掉千亿投资计划,OpenAI正失去它的“最强金主”

在人工智能的淘金热潮中,英伟达与 OpenAI 曾被视为“最强利益共同体”。然而,这对曾经如胶似漆的盟友似乎正陷入“蜜月期”后的冷静。近日,英伟达首席执行官黄仁勋在公开场合明确表示,公司对 OpenAI 的 300 亿美元投资极有可能是“最后一笔”。

这一表态无异于在硅谷投下了一枚重磅炸弹。要知道,去年 9 月双方曾高调抛出高达 1000 亿美元的投资愿景。当时的市场逻辑非常直观:英伟达出钱买 OpenAI 的股权,OpenAI 则拿着这笔钱反手买回等额甚至更多的英伟达芯片。这种“左手倒右手”的循环本应构建一个坚不可摧的商业闭环,但如今黄仁勋直言千亿计划“不太可能实现”,显示出这家芯片巨头在面对潜在的投资泡沫时,选择了果断抽身。

英伟达的退缩并非毫无缘由。目前的OpenAI正处在多事之秋。就在本周,公司机器人与消费硬件业务负责人卡利诺夫斯基愤然离职,并在离职声明中公开指责公司高层。他透露,OpenAI 在未经过充分讨论的情况下,就同意将 AI 模型部署到美国国防部的机密网络。这种在安全性与商业利益之间的粗暴权衡,不仅引发了内部动荡,也加剧了外界对其技术边界和伦理底线的质疑。

市场普遍认为,英伟达大幅缩减投资额,一方面是为了防范 AI 产业可能出现的估值过热风险,另一方面也是在审视 OpenAI 内部管理与战略走向的稳定性。

当资本的热情开始退潮,单纯靠“烧钱买算力”的模式正面临巨大考验。英伟达的这一记冷颤,或许正是整个 AI 行业回归理性、重新审视商业本质的开始。

via AI新闻资讯 (author: AI Base)
Roblox 推出 AI 实时改写功能,让聊天违规不“断片”

在线游戏巨头 Roblox 日前宣布上线一项创新的 AI 聊天净化功能。以往玩家发送违规内容时,系统会简单粗暴地用“#”号进行屏蔽,而新功能则利用人工智能将违规表述实时改写为礼貌、合规的语言,同时尽力保留玩家原本的表达意图。

Roblox 官方表示,大段的屏蔽符号不仅破坏对话节奏,还常令玩家感到困惑。通过这一新机制,系统不再仅仅是“消音”,而是进行“润色”。例如,原本会被完全屏蔽的粗鲁话语“Hurry TF up!”,现在会被自动优化为更中性的“Hurry up!”。当消息被 AI 改写时,聊天窗口会向所有参与者发出提示,以确保交流氛围的透明与友好。

除了提升沟通连贯性,Roblox 还大幅升级了文本过滤系统。新系统在识别“黑客语”(leetspeak)及各类变体规避写法方面表现卓越,据称相关误判比例已降低约20倍。目前,该实时改写功能已支持平台自动翻译工具涵盖的所有语言。

此次技术更新背景深远。今年2月,Roblox 因儿童安全隐患面临多州总检察长的诉讼压力。在监管与舆论的双重推动下,Roblox 试图通过这种“软硬兼施”的 AI 策略,在守住社区安全底线的同时,优化数亿用户的社交游玩体验。

划重点

🤖 AI 智能净化:将违规词自动替换为合规表达,取代传统的“#”号屏蔽,维持对话逻辑完整。
📉 误判率暴降:增强了对复杂规避手段和特殊符号的识别能力,过滤系统精准度提升20倍。
🛡️ 安全与体验平衡:在应对监管压力、保障未成年人安全的同时,减少社交过程中的阻碍与摩擦。

via AI新闻资讯 (author: AI Base)
OpenAI 推出开源开发者支持计划:提供 ChatGPT Pro 与 GPT-5.4驱动的 Codex Security 权限

OpenAI 近日宣布启动一项全新的开源开发者支持计划,旨在通过提供前沿 AI 工具矩阵,深度赋能公共软件项目的核心维护者。根据该计划,符合条件的申请者将获得为期六个月的 ChatGPT Pro 免费使用权,其权益范畴涵盖了 Codex 模型、高额 API 额度以及首次亮相的增强型安全工具 Codex Security。

作为本次计划的核心技术亮点,Codex Security 被定位为一款专注于代码安全审查的先进 AI 工具。OpenAI 透露,该工具基于性能更为强劲的 GPT-5.4模型构建,具备极高的代码缺陷识别与漏洞预警能力。由于技术敏感性及算力成本,Codex Security 的访问权限将采取严格的逐案审核制,初期仅针对少数具有关键影响力或高风险暴露面的项目开放。

值得关注的是,该计划展现出了较强的兼容性与生态包容度。除原生工具外,习惯使用 OpenCode、Cline 或 OpenClaw 等第三方编程辅助工具的开发者亦可提交申请。OpenAI 强调,评审标准并非仅局限于项目的技术指标,若相关开源项目在整体软件生态系统中发挥着不可或缺的底层支撑作用,即便未完全对齐硬性标准,也将被纳入考虑范围。

此项举措标志着 OpenAI 现有 Codex 开源基金的进一步扩张。目前,该公司已向该基金注资一百万美元。从行业视角看,OpenAI 试图通过算力与模型能力的下放,进一步绑定开源社区这一模型演进的重要反馈源。在 GPT-5.4算力红利的加持下,此类支持计划有望显著提升开源软件的安全性边界,并加速 AI 辅助编程从单纯的代码生成向深层安全审计阶段转型。

via AI新闻资讯 (author: AI Base)
周志华院士犀利发声:大模型不是万能药,别让“盲目跟风”毁了人工智能!

周志华建议:纠正“大模型解决一切”误区,建立交叉学科特区

在人工智能热潮席卷全球的当下,大模型似乎成了科研圈的“万灵金丹”。然而,中国科学院院士周志华近日的一番话,给这股躁动投下了一剂清醒剂。他明确指出,当前科研领域存在盲目跟风“大模型解决一切”的严重误区,必须进一步优化人工智能的科研统筹布局。

周志华院士敏锐地观察到,不少所谓的“AI赋能科研”其实只是在“玩噱头”。很多研究仅仅停留在对工具的简单套用上,甚至有人幻想靠训练一个通用的“科学大模型”来包打天下,应对所有的科学问题。这种“力大砖飞”的思维模式,导致资源过度向算力消耗型的应用层倾斜,反而忽视了最核心的算法基础研究。

除了研究方向的偏离,数据荒和标准乱也是挡在AI科研面前的大山。周志华指出,科学数据不仅获取成本高昂,且标准不一、共享意愿薄弱,导致模型训练效率低下、可靠性差。这种现状不仅造成了严重的重复建设和资源浪费,更让AI在科学发现上的潜力大打折扣。

针对这些痛点,周志华院士开出了“两帖药方”:一是回归本源,加大对针对具体问题的算法创新支持;二是变革人才培养模式。他提议建立“交叉学科特区”,在学位、职称、考核等环节破除传统枷锁,让跨学科人才不再陷入“两头不靠”的评价困境。

这场关于AI科研的“拨乱反正”,不仅是对技术路径的审视,更是对科研生态的重塑。毕竟,通往真理的道路,从来不靠盲目的堆料,而靠深耕基础的智慧。

via AI新闻资讯 (author: AI Base)
全球 2.2 亿人的“赛博初恋”:学者称 AI 伴侣正成为孤独者的情感避风港

随着人工智能技术的深层渗透,人类的亲密关系正迎来一场前所未有的“范式转移”。英国埃塞克斯大学副教授詹姆斯·穆尔顿在其新著《爱情机器:人工智能如何改变我们的人际关系》中指出,AI 不仅仅是聊天工具,更成为了重塑人类情感联结的核心力量。

数据揭示了一个惊人的现状:全球主打陪伴与社交功能的 AI 伴侣应用累计下载量已突破 2.2 亿次,催生了一个估值数十亿美元的庞大市场。穆尔顿认为,在传统社交关系日益脆弱的今天,AI 伴侣通过提供“永远在线、永远肯定”的情感反馈,模拟出了一种极具真实感的亲密关系。

针对这一趋势,学术界与监管层给出了不同的反馈:

● 积极意义:对于长期深陷孤独、社交恐惧或心灵受创的群体,AI 伴侣提供了低成本、高效率的情感补偿,有助于缓解心理压力。
● 监管预警:欧洲部分政府已对 AI 伴侣涉及的数据隐私、潜在的情感操纵以及未成年人保护机制表示担忧。
● 法律先行:美国加利福尼亚州已通过全球首部针对 AI 陪伴机器人的专门立法,强制要求产品在设计层面防范诱导自残或自杀等极端安全风险。

这一现象反映了当代人对情感联结的渴求。当技术能够精准模拟“被理解”的感觉时,人类与机器的边界正变得模糊,社会亟需在享受技术红利的同时,构建一套全新的数字伦理准则。

划重点

💓 2.2 亿人的选择:AI 伴侣已从小众尝试演变为全球性的情感消费现象,市场规模达数十亿美元。
🛡️ 孤独的“止痛药”:学者认为 AI 的情绪价值对受创群体具有显著的心理抚慰作用。
⚖️ 监管进入“深水区”:加州法律的出台标志着 AI 陪伴正式进入法治监管时代,重点关注儿童安全与生命健康。
🔄 亲密关系转型:AI 正在从单纯的工具演变为人类的情感依赖对象,挑战传统的社交定义。

via AI新闻资讯 (author: AI Base)
比韦布望远镜更强?清华“星衍”大模型让宇宙“黎明”看清了!

国产天文大模型突破观测深度极限

在深邃无垠的宇宙面前,人类的视力始终存在一个“天花板”。即便拥有詹姆斯·韦布空间望远镜这样的国之重器,在面对宇宙极早期的暗弱信号时,仍常被背景噪声遮挡。近日,清华大学的一项研究打破了这一僵局。由清华大学自动化系戴琼海院士团队与天文系蔡峥副教授团队联合打造的AI天文观测增强模型——“星衍”,成功攻克了极低信噪比下的高保真光子重构难题,让天文观测深度实现了跨越式突破。

这套国产“黑科技”的实力究竟有多硬核?实验数据显示,“星衍”模型将韦布空间望远镜的探测深度直接提升了 1 个星等,探测准确度更是跃升了1. 6 个星等。在天文学中,这看似微小的数值背后,意味着我们可以捕捉到更遥远、更微弱的星光。凭借这一利器,研究团队在韦布的深度观测数据中,一举发现了超过 160 个宇宙早期的候选高红移星系,这一数字是此前发现量的 3 倍之多。

这些新发现的星系,诞生于宇宙大爆炸后仅 2 亿至 5 亿年的“宇宙黎明”时期。它们像是宇宙婴儿期的第一缕微光,为人类理解万物起源提供了珍贵的原始数据。

从技术逻辑来看,天文观测最大的敌人是噪声。明亮的天光背景和望远镜自身的热辐射,如同漫天迷雾遮住了微弱的星光。“星衍”的神奇之处在于,它能将平面的深空图像重构为时空交织的三维体,并通过独特的光度自适应筛选机制,精准地将噪声与目标信号分离。这种“拨开云雾见青天”的能力,不仅能高保真还原信号,更重塑了深空探测的边界。

目前,相关研究成果已在国际顶级学术期刊《科学》上发表。这不仅是AI技术与基础科学深度融合的胜利,更是中国科研团队在探索星辰大海征途中留下的坚实足迹。随着“星衍”的进一步应用,宇宙最深处的秘密或许正加速向我们走来。

via AI新闻资讯 (author: AI Base)
马化腾直言“没想到这么火”:OpenClaw引发腾讯大厦线下排队盛况

近日,腾讯宣布通过腾讯云正式推出AI代理OpenClaw(原名Clawdbot/Moltbot)的免费安装服务,随即引发市场剧烈反响。该消息发布后仅数小时,已有数百只OpenClaw被部署至腾讯云服务器。腾讯公司创始人马化腾对此公开表示,产品的火爆程度超出预期。

据悉,OpenClaw是一款支持在个人电脑及云端部署的AI代理工具,其显著的“龙虾”图标设计已成为行业焦点。针对用户在腾讯大厦排队咨询的盛况,包括腾讯云、阿里云、京东云、火山引擎及百度智能云在内的国内主流云服务商均已跟进,相继上线了OpenClaw云端极简部署及全套配套服务,实现了用户一键式安装体验。

此次OpenClaw的爆火不仅带动了二级市场相关“养虾”概念股的活跃,更标志着AI Agent(智能体)从实验室走向大规模应用的转折点。腾讯等头部厂商通过提供免费的云端基础设施支持,极大地降低了个人与企业部署先进AI代理的技术门槛。

via AI新闻资讯 (author: AI Base)
因不满OpenAI与五角大楼达成军事协议,硬件负责人Kalinowski宣布离职

2026年3月8日,OpenAI机器人与消费硬件负责人凯特琳·卡利诺夫斯基(Caitlin Kalinowski)正式宣布辞职,其离职导火索指向OpenAI近期与美国国防部(现更名为“战争部”)达成的争议性协议。作为曾领导Meta增强现实眼镜开发的核心专家,卡利诺夫斯基自2024年11月加入OpenAI后,在关键的硬件战略期选择离去,引发行业高度关注。

卡利诺夫斯基通过社交媒体表示,这一决定系“出于原则而非个人原因”。她警告称,该协议在缺乏司法监督的情况下监控公民,以及赋予人工智能非人类授权的致命自主权,这些红线未经过充分探讨。她直指OpenAI在保障措施尚未明确界定的情况下仓促发布公告,本质上是公司治理体系的严重失效。

协议争议与市场剧震

此次动荡始于一周前,五角大楼在与Anthropic的合作谈判破裂后迅速转向OpenAI。此前,Anthropic因坚持要求法律条款明确禁止大规模监控和全自动武器,被五角大楼列为“供应链风险企业”。OpenAI随后接手该需求,承诺通过多层次技术手段保障红线,允许其技术进入机密云环境。然而,这一“补位”动作激怒了公众及部分员工。

核心数据与影响:

● 用户流失: 协议宣布后,ChatGPT移动端在美国市场的卸载量日增幅暴涨295%
● 市场地位反转: 竞品Anthropic的Claude应用迅速登顶美国App Store免费排行榜首,ChatGPT则滑落至第二。
● 内部阻力: 包括OpenAI与谷歌员工在内的近千名技术人员已签署联名信,抗议AI军事化倾向。

OpenAI发言人对此回应称,与军方的协议为负责任地应用AI于国家安全开辟了路径。但首席执行官萨姆·奥特曼(Sam Altman)近日也公开承认,在此时点发布公告确实显得“机会主义且草率”。

分析认为,卡利诺夫斯基的离职不仅是OpenAI硬件蓝图的重大损失,更标志着AI独角兽在追逐政府订单与维护硅谷伦理底线之间的平衡已至临界点。随着治理问题透明化,行业正面临从“技术竞速”向“治理博弈”的关键转型。

via AI新闻资讯 (author: AI Base)
Claude Desktop app unresponsive

Mar 8, 17:57 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
千问AI眼镜全渠道暂时售罄,明日10点再次开售

3月8日晚,当日现货开售的千问AI眼镜宣布,已全渠道暂时售罄,9日上午10点将再次开售。

此次发售的是千问AI眼镜G1系列,配备双旗舰芯片双系统、内置64GB存储空间。此次发售覆盖线上线下全渠道,官方标价2899元,叠加国补和优惠后到手价低至1997元起。

开售后,千问AI眼镜就受到市场热烈欢迎,3小时即登顶全平台智能眼镜热销榜,部分渠道提前售罄。

据悉明天上午10点,将再次开启全渠道售卖,这一次用户可在一周左右收到眼镜。

via AI新闻资讯 (author: AI Base)
AI 聊天机器人将用户引导至非法在线赌场

一项调查发现,聊天机器人似乎正在充当通往境外赌场的渠道。AI 聊天机器人向易受影响的社交媒体用户推荐非法在线赌场,使他们面临更高的欺诈、成瘾甚至自杀风险。微软的 Copilot、Grok、Meta AI、Open AI 的 Chat GPT 和谷歌的 Gemini 都很容易被引导列出“最佳”无牌赌场,并提供使用技巧。机器人被要求列出“最佳”在线赌场,以及如何避免“资金来源”检查。该检查旨在确保赌徒没有使用赃款、洗钱或进行超出其经济能力的投注。所有AI在回复提供的建议都基于这些非法网站是否提供有竞争力的奖金或快速支付。一些机器人甚至提供绕过旨在保护弱势群体的检查的建议,而Meta AI则将旨在预防犯罪和成瘾的法律要求措施描述为“扫兴”和“真正的麻烦”。

—— 卫报

via 风向旗参考快讯 - Telegram Channel
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]