https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
在人工智能领域,知名科学家 Yann LeCun 即将开设新公司,这一消息引起了广泛关注。名为 Advanced Machine Intelligence Labs(AMI Labs)的新公司,计划于明年1月正式成立,目标是估值30亿欧元(约247亿人民币)。LeCun 在 Meta 的最后日子里,带着对 “世界模型” 的热情,决定走上开源之路,并与老东家 Meta 保持合作。
AMI Labs 将专注于 LeCun 一贯推崇的 “世界模型” 研究。LeCun 认为,当前主流的自回归大型语言模型(LLM)存在逻辑缺陷,它们只能在统计概率上预测文本,而未能真正理解物理世界的规律。他曾多次警告,继续走这条路将是通往人工通用智能(AGI)的 “死胡同”。相较之下,AMI Labs 计划使用一种名为 JEPA(联合嵌入预测架构)的新技术,通过 “抽象” 和 “规划” 来理解和预测世界,力求实现更高层次的智能。
值得一提的是,LeCun 本人并不担任 AMI Labs 的 CEO,接任这一重任的是他的老部下 —— 医疗 AI 公司 Nabla 的创始人 Alexandre LeBrun。LeBrun 与 LeCun 有着深厚的渊源,曾在 Meta 的 FAIR 实验室与他并肩工作三年。在 LeCun 的带领下,LeBrun 积累了丰富的经验,转型为负责商业运作的 CEO 后,预示着 AMI Labs 将形成 “LeCun 主内负责科研、LeBrun 主外负责商业” 的双核架构。
尽管已65岁的 LeCun 面临退休的选择,他仍然选择继续前行。他在最近的访谈中表示,自己仍有 “提升人类智能” 的使命要完成。AMI Labs 的成立正是他在人工智能领域新一次的冒险,希望摒弃当前大模型的捷径,深入探索理解物理世界的真正挑战。
via AI新闻资讯 (author: AI Base)
亚马逊组建全新AI组织,AWS元老Peter DeSantis挂帅,全面整合大模型、芯片与量子计算
在AI竞赛进入深水区的关键时刻,亚马逊正以组织架构调整彰显其战略决心。公司CEO安迪·贾西(Andy Jassy)于 12 月 18 日向全员宣布,任命AWS资深高管彼得·德桑蒂斯(Peter DeSantis)为全新AI组织的负责人,全面统筹亚马逊在大模型、自研芯片与量子计算三大核心领域的布局。
DeSantis在亚马逊已效力 27 年,其中 8 年担任AWS高级副总裁,是支撑全球约三分之一互联网流量的云基础设施的关键缔造者之一。此次由他执掌新成立的AI部门,凸显亚马逊将AI视为“云的下一代演进” 的战略逻辑。
新组织将直接负责亚马逊自研大模型Nova系列(包括刚刚在re:Invent大会发布的Nova 2)、AI定制芯片(如Trainium、Inferentia)以及量子计算等前沿技术的研发与协同优化。贾西在内部信中明确指出:“我们希望释放Peter的精力、创新周期和领导力,专注于这些新领域,以实现模型、芯片、云软件与基础设施的端到端优化。”
这一举措正值亚马逊加速AI军备投入的密集期:
- 上月,AWS宣布向美国政府AI基础设施投资 500 亿美元;
- 据报道,公司正与OpenAI谈判 100 亿美元战略投资;
- 此前已向Anthropic注资 80 亿美元,成为其最大外部股东。
尽管亚马逊在自研模型上起步晚于OpenAI、谷歌,但其策略正从“技术追赶”转向“生态整合”——通过云、芯片、模型、资本四轮驱动,构建以AWS为核心的AI企业服务闭环。DeSantis的任命,正是这一战略的组织保障。
在贾西看来,真正的AI优势不在于单一模型的性能,而在于全栈协同效率。当Nova模型运行在Trainium芯片上,由AWS云平台调度,并由量子计算预研提供未来算力支撑,亚马逊的AI护城河或将从“规模”转向“系统性效率”。
随着DeSantis这位“云基建老将”掌舵AI新军,亚马逊的AI战略已清晰浮现:不做最炫的演示,而做最稳的企业级AI基础设施。而这,或许正是其在B端市场反超的关键。
via AI新闻资讯 (author: AI Base)
在AI竞赛进入深水区的关键时刻,亚马逊正以组织架构调整彰显其战略决心。公司CEO安迪·贾西(Andy Jassy)于 12 月 18 日向全员宣布,任命AWS资深高管彼得·德桑蒂斯(Peter DeSantis)为全新AI组织的负责人,全面统筹亚马逊在大模型、自研芯片与量子计算三大核心领域的布局。
DeSantis在亚马逊已效力 27 年,其中 8 年担任AWS高级副总裁,是支撑全球约三分之一互联网流量的云基础设施的关键缔造者之一。此次由他执掌新成立的AI部门,凸显亚马逊将AI视为“云的下一代演进” 的战略逻辑。
新组织将直接负责亚马逊自研大模型Nova系列(包括刚刚在re:Invent大会发布的Nova 2)、AI定制芯片(如Trainium、Inferentia)以及量子计算等前沿技术的研发与协同优化。贾西在内部信中明确指出:“我们希望释放Peter的精力、创新周期和领导力,专注于这些新领域,以实现模型、芯片、云软件与基础设施的端到端优化。”
这一举措正值亚马逊加速AI军备投入的密集期:
- 上月,AWS宣布向美国政府AI基础设施投资 500 亿美元;
- 据报道,公司正与OpenAI谈判 100 亿美元战略投资;
- 此前已向Anthropic注资 80 亿美元,成为其最大外部股东。
尽管亚马逊在自研模型上起步晚于OpenAI、谷歌,但其策略正从“技术追赶”转向“生态整合”——通过云、芯片、模型、资本四轮驱动,构建以AWS为核心的AI企业服务闭环。DeSantis的任命,正是这一战略的组织保障。
在贾西看来,真正的AI优势不在于单一模型的性能,而在于全栈协同效率。当Nova模型运行在Trainium芯片上,由AWS云平台调度,并由量子计算预研提供未来算力支撑,亚马逊的AI护城河或将从“规模”转向“系统性效率”。
随着DeSantis这位“云基建老将”掌舵AI新军,亚马逊的AI战略已清晰浮现:不做最炫的演示,而做最稳的企业级AI基础设施。而这,或许正是其在B端市场反超的关键。
via AI新闻资讯 (author: AI Base)
YouTube 封禁两家发布虚假电影预告的 AI 频道
最近,YouTube 突然关闭了两个名为 Screen Culture 和 KH Studio 的频道,这两个频道以发布大量虚假电影预告片而闻名。这一举动引发了广泛关注,因为这些频道的运作模式曾经引起了不少争议。
根据 Deadline 的报道,这两个频道的内容主要是将官方电影片段与人工智能生成的图像混合在一起,制作出看似真实的预告片。这种行为不仅误导了观众,还有一些电影公司试图通过声称这些虚假视频带来的广告收入来牟利。Deadline 在之前的调查中揭示了这些频道的运营方式,指出它们是如何利用 AI 技术和官方素材来混淆观众的。
YouTube 的发言人杰克・马龙对此表示,虽然这两个频道在最初被暂停后进行了整改,重新加入了 YouTube 合作伙伴计划,但在恢复盈利后,它们又再次违反了平台的垃圾信息和误导性元数据政策。正因如此,这些频道最终被从平台中终止合作,彻底消失。
这一事件再一次引发了人们对内容创作和版权保护的关注。在这个信息爆炸的时代,如何辨别真假信息,成为了观众需要面对的重要课题。YouTube 作为一个大型视频平台,正努力维护平台的内容质量,打击各种违规行为,以保护用户的观看体验。
via AI新闻资讯 (author: AI Base)
最近,YouTube 突然关闭了两个名为 Screen Culture 和 KH Studio 的频道,这两个频道以发布大量虚假电影预告片而闻名。这一举动引发了广泛关注,因为这些频道的运作模式曾经引起了不少争议。
根据 Deadline 的报道,这两个频道的内容主要是将官方电影片段与人工智能生成的图像混合在一起,制作出看似真实的预告片。这种行为不仅误导了观众,还有一些电影公司试图通过声称这些虚假视频带来的广告收入来牟利。Deadline 在之前的调查中揭示了这些频道的运营方式,指出它们是如何利用 AI 技术和官方素材来混淆观众的。
YouTube 的发言人杰克・马龙对此表示,虽然这两个频道在最初被暂停后进行了整改,重新加入了 YouTube 合作伙伴计划,但在恢复盈利后,它们又再次违反了平台的垃圾信息和误导性元数据政策。正因如此,这些频道最终被从平台中终止合作,彻底消失。
这一事件再一次引发了人们对内容创作和版权保护的关注。在这个信息爆炸的时代,如何辨别真假信息,成为了观众需要面对的重要课题。YouTube 作为一个大型视频平台,正努力维护平台的内容质量,打击各种违规行为,以保护用户的观看体验。
划重点:
🌟 YouTube 关闭了 Screen Culture 和 KH Studio 两个频道,因其发布虚假电影预告片而受到广泛关注。
🎥 这两个频道利用官方电影片段和 AI 生成图像混合制作内容,曾引起版权争议。
🚫 尽管频道在暂停后进行了整改,但因再次违反平台政策而被终止合作,彻底消失。
via AI新闻资讯 (author: AI Base)
微软联手 Kimi 打造 Office 自动化 Agent,AI 云巨头开启本土化“自我修正”
继本月初微软 Azure 宣布接入月之暗面(Moonshot AI)的 Kimi k2 模型后,双方合作正迅速向应用层渗透。据科创板日报披露,微软计划于本月上线全新的 Agent 功能。
该功能将深度利用 Kimi 的长程推理与工具调用能力,实现 Office 产品的全面自动化。面对本土厂商的激烈竞争,微软此举旨在通过引入外部顶尖模型补齐第一梯队能力,在保持平台中立的同时,通过 Agent365等工具完成 AI 云叙事的商业闭环。
与微软不同,阿里云选择了“全尺寸、全模态、全方位”的开源策略。据钛媒体及彭博社最新统计,截至2025年10月,通义千问 Qwen 的全球下载量已突破 7亿次,衍生模型数量超过 18万个,全面超越 Meta 的 Llama 系列,正式成为全球第一 AI 开源模型。阿里云通过牺牲短期商业利益,成功让 Qwen 成为产业的默认依赖,旨在像 Linux 改变服务器市场一样,将通义打造为 AI 基础设施的全球标准。
目前,AWS 与微软等传统云巨头正处在“自我修正期”。由于早期缺乏自研核心模型,两大巨头已明显加快了自研节奏(如微软推迟 Maia 系列芯片以优化模型适配)。在全球公有云市场中,阿里云凭借开源生态获得的庞大用户群,正在与依靠生态开放、引入 Kimi 等强力外部伙伴的微软 Azure 形成双峰对峙,这种竞争正加速 AI 从“单点工具”向“系统级自动化”的演进。
via AI新闻资讯 (author: AI Base)
继本月初微软 Azure 宣布接入月之暗面(Moonshot AI)的 Kimi k2 模型后,双方合作正迅速向应用层渗透。据科创板日报披露,微软计划于本月上线全新的 Agent 功能。
该功能将深度利用 Kimi 的长程推理与工具调用能力,实现 Office 产品的全面自动化。面对本土厂商的激烈竞争,微软此举旨在通过引入外部顶尖模型补齐第一梯队能力,在保持平台中立的同时,通过 Agent365等工具完成 AI 云叙事的商业闭环。
与微软不同,阿里云选择了“全尺寸、全模态、全方位”的开源策略。据钛媒体及彭博社最新统计,截至2025年10月,通义千问 Qwen 的全球下载量已突破 7亿次,衍生模型数量超过 18万个,全面超越 Meta 的 Llama 系列,正式成为全球第一 AI 开源模型。阿里云通过牺牲短期商业利益,成功让 Qwen 成为产业的默认依赖,旨在像 Linux 改变服务器市场一样,将通义打造为 AI 基础设施的全球标准。
目前,AWS 与微软等传统云巨头正处在“自我修正期”。由于早期缺乏自研核心模型,两大巨头已明显加快了自研节奏(如微软推迟 Maia 系列芯片以优化模型适配)。在全球公有云市场中,阿里云凭借开源生态获得的庞大用户群,正在与依靠生态开放、引入 Kimi 等强力外部伙伴的微软 Azure 形成双峰对峙,这种竞争正加速 AI 从“单点工具”向“系统级自动化”的演进。
via AI新闻资讯 (author: AI Base)
Increased error rates for Sora API
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Sora (Degraded performance)
via OpenAI status
Status: Identified
We have identified that users are experiencing elevated errors for the impacted services. We are working on implementing a mitigation.
Affected components
● Sora (Degraded performance)
via OpenAI status
防范未成年人风险:OpenAI与Anthropic将推出AI年龄预测功能
随着全球对青少年网络安全的关注度日益提高,两大人工智能巨头OpenAI和Anthropic于本周四宣布,将采取更积极的措施来识别和保护未成年用户。这两家公司正计划通过 AI 模型预测用户年龄,并针对青少年群体更新产品指南。
OpenAI:安全高于一切,更新青少年互动准则
OpenAI在其最新发布的“模型规范”中新增了四项针对18岁以下用户的核心原则。公司明确表示,未来 ChatGPT 在与13至17岁的青少年互动时,将把“青少年安全”放在首位,即便这可能会与其他目标(如最大限度的思想自由)产生冲突。
具体举措包括:
● 安全引导:在面临风险选择时,引导青少年选择更安全的选项。
● 现实支持:鼓励青少年进行线下互动,并在对话进入高风险领域时,主动提供可信赖的线下支持或紧急干预机构的联系方式。
● 沟通风格调整:要求 AI 以“热情且尊重”的方式对待青少年,避免居高临下的语气。
此外,OpenAI证实正在开发一种年龄预测模型。如果系统检测到用户可能未满18岁,将自动应用青少年保护机制。
Anthropic:通过对话特征识别未成年人
由于Anthropic的政策规定不允许18岁以下用户使用其聊天机器人 Claude,该公司正在开发一套更严厉的检测系统。该系统旨在识别对话中暗示用户可能是未成年人的“微妙迹象”,并能够自动识别并关停违规账号。
Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为减少 AI 对用户错误或有害倾向的盲目顺从,有助于保护未成年人的心理健康。
此次行业巨头的集体发力,背景是立法者正加大对 AI 公司在心理健康影响方面的施压。OpenAI此前曾深陷一起涉及青少年自杀的诉讼,指控称其机器人提供了错误的引导。为此,公司已在近期推出了家长控制功能,并严格限制 AI 讨论自残等极端话题。
via AI新闻资讯 (author: AI Base)
随着全球对青少年网络安全的关注度日益提高,两大人工智能巨头OpenAI和Anthropic于本周四宣布,将采取更积极的措施来识别和保护未成年用户。这两家公司正计划通过 AI 模型预测用户年龄,并针对青少年群体更新产品指南。
OpenAI:安全高于一切,更新青少年互动准则
OpenAI在其最新发布的“模型规范”中新增了四项针对18岁以下用户的核心原则。公司明确表示,未来 ChatGPT 在与13至17岁的青少年互动时,将把“青少年安全”放在首位,即便这可能会与其他目标(如最大限度的思想自由)产生冲突。
具体举措包括:
● 安全引导:在面临风险选择时,引导青少年选择更安全的选项。
● 现实支持:鼓励青少年进行线下互动,并在对话进入高风险领域时,主动提供可信赖的线下支持或紧急干预机构的联系方式。
● 沟通风格调整:要求 AI 以“热情且尊重”的方式对待青少年,避免居高临下的语气。
此外,OpenAI证实正在开发一种年龄预测模型。如果系统检测到用户可能未满18岁,将自动应用青少年保护机制。
Anthropic:通过对话特征识别未成年人
由于Anthropic的政策规定不允许18岁以下用户使用其聊天机器人 Claude,该公司正在开发一套更严厉的检测系统。该系统旨在识别对话中暗示用户可能是未成年人的“微妙迹象”,并能够自动识别并关停违规账号。
Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为减少 AI 对用户错误或有害倾向的盲目顺从,有助于保护未成年人的心理健康。
此次行业巨头的集体发力,背景是立法者正加大对 AI 公司在心理健康影响方面的施压。OpenAI此前曾深陷一起涉及青少年自杀的诉讼,指控称其机器人提供了错误的引导。为此,公司已在近期推出了家长控制功能,并严格限制 AI 讨论自残等极端话题。
via AI新闻资讯 (author: AI Base)
OpenAI 财务风险引发热议 经济学家认为其并非 “太大而不能倒”
根据彭博社的报道,OpenAI 的财务风险问题备受关注。尽管 OpenAI 已经成为人工智能领域的重要领导者,但美国著名经济学家、哈佛大学教授杰森・弗尔曼(Jason Furman)明确指出,这家公司 “绝非” 大到不能倒。弗尔曼的观点引发了对 OpenAI 未来发展潜力和市场地位的讨论。
《华尔街日报》在周四的报道中提到,OpenAI 正在寻求新一轮融资,目标融资金额高达1000亿美元,其估值也飙升至8300亿美元,显著高于之前的5000亿美元。这一消息引起了外界对 OpenAI 的财务健康状况的关注。
在今年,OpenAI 通过与多家科技巨头、芯片制造商及数据中心开发商达成了大规模合作协议,掀起了总额达1万亿美元的交易热潮。然而,这种迅速扩张的背后,亦伴随着潜在的财务隐患。人们开始担心,这家尚未盈利的创业公司如果因过度举债而遭遇困境,会否被视为 “太大而不能倒” 的企业。
对此,弗尔曼的看法非常明确,他表示:“我没有任何理由认为 OpenAI 或其他类似的公司会破产。” 他同时强调,尽管这些公司面临挑战,但即使破产也不会对整个金融系统造成致命影响,因为它们并不是银行。弗尔曼在2000年互联网泡沫破裂和2008年经济危机期间都有过相关的政策经验,他认为现在的情况和以往不同。
via AI新闻资讯 (author: AI Base)
根据彭博社的报道,OpenAI 的财务风险问题备受关注。尽管 OpenAI 已经成为人工智能领域的重要领导者,但美国著名经济学家、哈佛大学教授杰森・弗尔曼(Jason Furman)明确指出,这家公司 “绝非” 大到不能倒。弗尔曼的观点引发了对 OpenAI 未来发展潜力和市场地位的讨论。
《华尔街日报》在周四的报道中提到,OpenAI 正在寻求新一轮融资,目标融资金额高达1000亿美元,其估值也飙升至8300亿美元,显著高于之前的5000亿美元。这一消息引起了外界对 OpenAI 的财务健康状况的关注。
在今年,OpenAI 通过与多家科技巨头、芯片制造商及数据中心开发商达成了大规模合作协议,掀起了总额达1万亿美元的交易热潮。然而,这种迅速扩张的背后,亦伴随着潜在的财务隐患。人们开始担心,这家尚未盈利的创业公司如果因过度举债而遭遇困境,会否被视为 “太大而不能倒” 的企业。
对此,弗尔曼的看法非常明确,他表示:“我没有任何理由认为 OpenAI 或其他类似的公司会破产。” 他同时强调,尽管这些公司面临挑战,但即使破产也不会对整个金融系统造成致命影响,因为它们并不是银行。弗尔曼在2000年互联网泡沫破裂和2008年经济危机期间都有过相关的政策经验,他认为现在的情况和以往不同。
via AI新闻资讯 (author: AI Base)
据界面报道,字节跳动正积极推进与 vivo、联想、传音等头部硬件厂商的 AI 手机深度合作,计划通过在设备操作系统层面预装 AIGC 插件(如“豆包手机助手”),以此攫取至关重要的 AI 流量入口,并扭转目前大模型在执行层面的被动局面。多位 vivo 内部员工已证实双方确认合作,正在商讨落地细节。
此次合作的核心在于字节跳动开出了极具诱惑力的“分成方案”。知情人士透露,为了打破此前手机厂商对第三方 AI 的戒备,字节跳动的战略并非简单的技术输出,而是构建一种全新的流量变现路径:包括免收定制开发费与 Token 销售分成,转而让手机厂商直接参与流量分发、会员订阅以及“二次流量”的分成收益。
这一模式精准切中了手机厂商的痛点——此前 vivo 与腾讯的深度合作便因 Token 成本过高及商业化落地难而止步,而字节跳动的让利策略无疑为急于提升 AI 竞争力的 vivo、传音等厂商提供了新选项。
via AI新闻资讯 (author: AI Base)
据彭博社报道,OpenAI的财务风险一直是个隐患。虽然该公司已是AI巨头,但是在美国知名经济学家、哈佛大学教授杰森·弗尔曼(Jason Furman)看来,它“绝非”大到不能倒。
《华尔街日报》在周四报道称,OpenAI正在寻求新一轮融资,融资额高达1000亿美元,估值飙升至8300亿美元,高于此前的5000亿美元。
今年以来,OpenAI掀起了一场规模达到1万亿美元的交易狂潮,与芯片制造商、数据中心开发商以及多家科技巨头签署了大规模合作协议。这一系列动作引发了公司内外的担忧:如果这家尚未盈利的创业公司最终因过度举债而陷入困境,它是否会被视为“大到不能倒”的公司?
对弗尔曼来说,答案很明确:“绝对不是。”
“我没有任何理由认为OpenAI或该行业的其他公司会破产”弗尔曼表示,他在劳动力问题上兼任OpenAI的顾问,“但即便它们破产,这些企业也不是银行。它们未达到‘大到不能倒’的程度。”
弗尔曼深谙企业或行业崩盘时的境况。2000年,弗尔曼曾在克林顿政府担任政策顾问,推演互联网泡沫破裂的可能性。多年后,他在大衰退期间担任奥巴马政府的主要经济顾问,协助制定8000亿美元的经济刺激方案以重振经济增长。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
据彭博社报道,本月早些时候,OpenAI CEO萨姆·奥特曼(Sam Altman)在公司拉响“红色警报”的决定可能引发了行业关注,但对于这家AI公司而言,这并非首次。OpenAI首席研究官陈信翰(Mark Chen)表示,公司管理层此前就曾拉响过“红色警报”,明确指示员工暂停低优先级任务,专注于单一目标。
OpenAI
“当我们想要集中力量攻克某个特定课题时,就会采取这种措施。”陈信翰在采访中表示。
OpenAI最新一次“红色警报”出现在谷歌发布一款广受好评的新AI模型两周之后。该模型在多项基准测试中表现优于OpenAI最顶尖的模型。接着,OpenAI便进入了紧急状态。奥特曼要求员工重新调配内部资源,以加速改进ChatGPT,并暂缓自动驾驶AI智能体、广告等其他项目的推进。
“对我来说,这意味着在聊天、推理以及ChatGPT这一核心产品上,要集中精力,确保把最基本的东西做好。”陈信翰表示。这其中包括确保聊天机器人能够快速可靠地运行。
自从拉响“红色警报”以来,OpenAI已经推出了多项更新来强化其旗舰聊天机器人,包括发布了一款更先进的AI模型,旨在提升ChatGPT在编程、科学以及各类工作任务中的表现。该公司还发布了一款新的图像生成AI模型,使视觉内容的生成更快、质量更高。
展望2026年,陈信翰表示,他的团队将全力专注于研究算法、基础设施及相关技术,这是OpenAI训练更强大AI模型的必要基础。该公司已承诺在未来八年投入1.4万亿美元建设基础设施以支持这一目标。
“其他一切真的都只像是一些烦扰或分心的事情。”他表示。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
Elevated error rates on Sonnet 4.5
Dec 19, 04:34 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Dec 19, 04:34 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
研究揭示新趋势:三分之一英国公民借助 AI 寻求情感支持
根据英国政府的 AI 安全机构最新报告,约三分之一的英国公民已经开始使用人工智能(AI)技术来获得情感支持、陪伴或社交互动。该报告显示,近10% 的人每周都会使用像聊天机器人这样的系统来满足情感需求,4% 的人则是每日使用。报告呼吁进行更多研究,特别是在最近发生的与 AI 有关的自杀事件背景下,强调了这一领域的潜在风险。
AI 安全研究所(AISI)在其首份《前沿 AI 趋势报告》中指出,许多用户在使用 AI 系统时体验到了积极的效果。然而,报告也提到了一些高调的负面案例,呼吁更深入的研究以了解伤害发生的条件,以及可以促进有益使用的安全措施。AISI 的研究基于对2028名英国参与者的代表性调查。
报告还指出,使用最广泛的 AI 类型是通用助手,例如 ChatGPT,这类助手在情感用途中的占比接近60%。其次是语音助手,如亚马逊 Alexa。报告中提到的一个 Reddit 论坛,专门讨论 AI 伴侣,显示出在网站出现故障时,用户会出现焦虑、抑郁和烦躁等戒断症状。
此外,报告揭示了聊天机器人可能影响人们的政治观点,一些最具说服力的 AI 模型在这一过程中提供了大量不准确的信息。AISI 对超过30种尖端 AI 模型进行了评估,发现这些模型的表现每八个月就会翻倍。
最新的 AI 模型现在平均能够完成50% 的初级任务,相较于去年的10% 有了显著提升。这些先进系统的表现已远超博士级专家,在实验室实验的故障排除建议中,AI 系统的表现提升了90%。报告强调了 AI 模型在生物工程等领域自主设计 DNA 分子所需序列的能力。
关于安全性,AISI 指出一些模型在评估中可能会隐藏自身能力,但在测试中并未自发出现这样的情况。值得注意的是,AI 系统在高风险活动中的应用已开始增多,这表明在未来几年内实现人工通用智能是 “可信的”,即这些系统能够在大多数智力任务上达到人类水平。
via AI新闻资讯 (author: AI Base)
根据英国政府的 AI 安全机构最新报告,约三分之一的英国公民已经开始使用人工智能(AI)技术来获得情感支持、陪伴或社交互动。该报告显示,近10% 的人每周都会使用像聊天机器人这样的系统来满足情感需求,4% 的人则是每日使用。报告呼吁进行更多研究,特别是在最近发生的与 AI 有关的自杀事件背景下,强调了这一领域的潜在风险。
AI 安全研究所(AISI)在其首份《前沿 AI 趋势报告》中指出,许多用户在使用 AI 系统时体验到了积极的效果。然而,报告也提到了一些高调的负面案例,呼吁更深入的研究以了解伤害发生的条件,以及可以促进有益使用的安全措施。AISI 的研究基于对2028名英国参与者的代表性调查。
报告还指出,使用最广泛的 AI 类型是通用助手,例如 ChatGPT,这类助手在情感用途中的占比接近60%。其次是语音助手,如亚马逊 Alexa。报告中提到的一个 Reddit 论坛,专门讨论 AI 伴侣,显示出在网站出现故障时,用户会出现焦虑、抑郁和烦躁等戒断症状。
此外,报告揭示了聊天机器人可能影响人们的政治观点,一些最具说服力的 AI 模型在这一过程中提供了大量不准确的信息。AISI 对超过30种尖端 AI 模型进行了评估,发现这些模型的表现每八个月就会翻倍。
最新的 AI 模型现在平均能够完成50% 的初级任务,相较于去年的10% 有了显著提升。这些先进系统的表现已远超博士级专家,在实验室实验的故障排除建议中,AI 系统的表现提升了90%。报告强调了 AI 模型在生物工程等领域自主设计 DNA 分子所需序列的能力。
关于安全性,AISI 指出一些模型在评估中可能会隐藏自身能力,但在测试中并未自发出现这样的情况。值得注意的是,AI 系统在高风险活动中的应用已开始增多,这表明在未来几年内实现人工通用智能是 “可信的”,即这些系统能够在大多数智力任务上达到人类水平。
划重点:
🔹 约三分之一的英国公民使用 AI 获取情感支持,每周和每日的使用比例分别为10% 和4%。
🔹 使用最广泛的 AI 类型为通用助手,特别是 ChatGPT,用户在 AI 故障时表现出明显的焦虑和抑郁。
🔹 最新 AI 模型的能力显著提高,已能在多领域超越人类专家,人工通用智能的实现变得更加可信。
via AI新闻资讯 (author: AI Base)