https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
据报道,被业内誉为“GPT-4o 之母”的OpenAI高管 Joanne Jang 在 X 平台正式发文,宣布结束其在公司长达四年半的职业生涯。作为赋予ChatGPT“灵魂”的关键人物,她的离去无疑为这家 AI 巨头的 IPO 之路蒙上了一层阴影。
核心人物:Joanne Jang —— 赋予 AI 情感的“灵魂工程师”
Joanne Jang 在OpenAI长期负责核心产品团队,是GPT-4o这一现象级模型背后的关键推手:
灵魂注入: 她主导了提升ChatGPT交互感与情绪表达能力的研究,让 AI 从冷冰冰的复读机变成了具备“拟人感”的智能伴侣。
低调告别: 尽管在推文中深情回顾了四年半的旅程,但 Joanne 并未解释离职原因,也未透露下一步去向,这种“静默式离职”引发了外界的诸多猜测。
动荡周期:管理层“大换血”引发连锁反应
Joanne 的离开并非孤立事件,而是OpenAI近期管理层持续失稳的最新缩影:
密集流失: 仅在过去一周内,OpenAI就有多位高管接连变动,核心人才的“离职潮”似乎仍未停歇。
高层分歧: 市场传闻 CEO 与 CFO 在公司 IPO 的具体时间表上存在重大分歧,这种战略层面的博弈进一步加剧了团队的不安。
IPO 危机:8520亿美金估值下的“失稳”担忧
目前,OpenAI正处于估值高达8520亿美元的上市冲刺阶段,任何核心职位的变动都会被投资者解读为负面信号:
市场顾虑: 核心研发人员与管理层的频繁变动,可能会削弱OpenAI的持续创新能力,进而动摇其在 AGI 竞赛中的领先地位。
进程阻力: 随着多位元老的出走,市场开始担心OpenAI内部治理结构是否足以支撑如此庞大的体量顺利上市。
结语:技术天才的“向外看”
从 Mira Murati 到Joanne Jang,OpenAI的“老近卫军”正在加速解体。当“GPT 之母”们纷纷选择在巅峰时刻离去,这到底是硅谷人才流动的正常迭代,还是这家 AI 帝国崩塌的前兆。
via AI新闻资讯 (author: AI Base)
中概 AI 股开盘狂欢!智谱大涨 15% 领跑,港股大模型板块集体“大象起舞”
4 月 8 日,港股市场迎来科技股的“集体高潮”。受全球 AI 技术突破及应用落地提速的多重利好刺激,大模型及 AI 应用板块开盘即展现出强劲的进攻姿态。
市场焦点:智谱、MiniMax 领衔冲锋
开盘阶段,板块内多只核心标的表现亮眼:
智谱 (Zhipu AI):开盘一度高开近 15%,成为全场最受瞩目的“领头羊”。
MINIMAX-W:紧随其后,高开涨幅超过 8%,显示出资本对国产大模型头部势力的强烈信心。
老牌巨头跟涨:金山云、金山软件 以及 腾讯控股 纷纷集体高开,带动整体科技板块情绪回暖。
大盘背景:恒生科技指数跳空高开
整体市场环境也为 AI 板块的爆发提供了绝佳土壤:
恒生指数:开盘上涨 2.61%。
恒生科技指数:涨幅达 2.95%,半导体、航空等多个硬核赛道同步走强。
行业热点:国际局势缓和与能源溢价
在 AI 狂欢的同时,国际能源与地缘政治动态也成为今日市场的背景音:
停火信号:据界面新闻报道,伊朗已接受临时停火提议,且霍尔木兹海峡预计将开放两周。
经济影响:停火协议的达成在一定程度上缓解了市场对供应链中断的担忧,为科技股的风险偏好回归创造了空间。
结语:AI 应用进入“估值修复”期
从早盘表现来看,市场正在对具备大模型落地能力的优质企业进行重新定价。随着智谱等新势力在资本市场的活跃,港股 AI 板块或将迎来新一轮的增长逻辑切换。
via AI新闻资讯 (author: AI Base)
4 月 8 日,港股市场迎来科技股的“集体高潮”。受全球 AI 技术突破及应用落地提速的多重利好刺激,大模型及 AI 应用板块开盘即展现出强劲的进攻姿态。
市场焦点:智谱、MiniMax 领衔冲锋
开盘阶段,板块内多只核心标的表现亮眼:
智谱 (Zhipu AI):开盘一度高开近 15%,成为全场最受瞩目的“领头羊”。
MINIMAX-W:紧随其后,高开涨幅超过 8%,显示出资本对国产大模型头部势力的强烈信心。
老牌巨头跟涨:金山云、金山软件 以及 腾讯控股 纷纷集体高开,带动整体科技板块情绪回暖。
大盘背景:恒生科技指数跳空高开
整体市场环境也为 AI 板块的爆发提供了绝佳土壤:
恒生指数:开盘上涨 2.61%。
恒生科技指数:涨幅达 2.95%,半导体、航空等多个硬核赛道同步走强。
行业热点:国际局势缓和与能源溢价
在 AI 狂欢的同时,国际能源与地缘政治动态也成为今日市场的背景音:
停火信号:据界面新闻报道,伊朗已接受临时停火提议,且霍尔木兹海峡预计将开放两周。
经济影响:停火协议的达成在一定程度上缓解了市场对供应链中断的担忧,为科技股的风险偏好回归创造了空间。
结语:AI 应用进入“估值修复”期
从早盘表现来看,市场正在对具备大模型落地能力的优质企业进行重新定价。随着智谱等新势力在资本市场的活跃,港股 AI 板块或将迎来新一轮的增长逻辑切换。
via AI新闻资讯 (author: AI Base)
智谱发布GLM-5.1:SWE-bench评分全球领跑,模型单价上调10%
近日,智谱正式发布全新大模型GLM-5.1。伴随新品上线,模型聚合平台OpenRouter监测显示,智谱GLM全线提价10%。此次调价后,GLM-5.1在Coding(编程)等核心场景的缓存命中Token价格已基本锚定Anthropic旗下Claude3.5Sonnet。这是国产大模型在经历早期“价格战”后,首次在主流应用场景实现与全球顶尖厂商的价格对齐,标志着行业竞争重心已从成本倾销转向性能溢价。
技术表现上,GLM-5.1在衡量专业软件开发能力的SWE-bench Pro基准测试中刷新世界纪录,超越了此前领先的Claude4.6Opus,位居国产及开源模型首位。不同于当前主流的分钟级交互逻辑,GLM-5.1具备极强的自主工程能力,能够在单次任务中持续工作长达8小时。在长时作业过程中,该模型可独立完成规划、执行与测试,并具备主动切换策略与自行修复错误的能力,能够直接交付完整的工程级成果。
受此消息影响,智谱股价于8日上午一度大涨14.12%,报890元/股,公司总市值攀升至3964亿元。从一年前降价90%争夺份额,到如今凭借技术优势对标国际基准,智谱的战略转型反映出头部国产厂商正试图通过解决复杂任务的“长航时”能力,重塑全球AI市场的价值分配格局。
via AI新闻资讯 (author: AI Base)
近日,智谱正式发布全新大模型GLM-5.1。伴随新品上线,模型聚合平台OpenRouter监测显示,智谱GLM全线提价10%。此次调价后,GLM-5.1在Coding(编程)等核心场景的缓存命中Token价格已基本锚定Anthropic旗下Claude3.5Sonnet。这是国产大模型在经历早期“价格战”后,首次在主流应用场景实现与全球顶尖厂商的价格对齐,标志着行业竞争重心已从成本倾销转向性能溢价。
技术表现上,GLM-5.1在衡量专业软件开发能力的SWE-bench Pro基准测试中刷新世界纪录,超越了此前领先的Claude4.6Opus,位居国产及开源模型首位。不同于当前主流的分钟级交互逻辑,GLM-5.1具备极强的自主工程能力,能够在单次任务中持续工作长达8小时。在长时作业过程中,该模型可独立完成规划、执行与测试,并具备主动切换策略与自行修复错误的能力,能够直接交付完整的工程级成果。
受此消息影响,智谱股价于8日上午一度大涨14.12%,报890元/股,公司总市值攀升至3964亿元。从一年前降价90%争夺份额,到如今凭借技术优势对标国际基准,智谱的战略转型反映出头部国产厂商正试图通过解决复杂任务的“长航时”能力,重塑全球AI市场的价值分配格局。
via AI新闻资讯 (author: AI Base)
随着人工智能在代码生成和逻辑推理领域的飞速进化,网络安全的平衡正面临前空前的挑战。近日,知名 AI 初创公司Anthropic正式发起名为**“玻璃翼计划”(Project Glasswing)**的跨行业协作项目,旨在利用最尖端的 AI 模型防御日益复杂的人工智能网络攻击。
这一“超级联盟”阵容豪华,创始合作伙伴包括苹果 (Apple)、谷歌 (Google)、亚马逊 (AWS)、微软 (Microsoft)、英伟达 (Nvidia) 以及思科、博通、CrowdStrike、Palo Alto Networks 等网络安全巨头。此外,摩根大通和 Linux 基金会也已加入其中。
“以毒攻毒”:应对潜在的安全威胁
该计划的核心源于 Anthropic 研发的一款尚未发布的实验性模型——Claude Mythos Preview。该模型展现出了极强的软件漏洞发现与利用能力。在初步测试中,Mythos 成功识别出数千个高危漏洞,甚至包括在 OpenBSD 等关键基础设施中潜伏了 27年之久、能导致系统远程崩溃的顽固漏洞。
Anthropic 警告称,如果此类能力落入不法分子之手,现有的操作系统和浏览器防御体系将变得脆弱不堪。为了抢在攻击者之前修复漏洞,Anthropic将为参与成员提供价值 1亿美元的 Mythos Preview 使用额度,并向开源安全组织直接捐赠400万美元,协助其加固基础软件。
防御未来的长远布局
对于普通用户而言,短期内可能不会感知到iOS或macOS的界面变化,但幕后的安全机制将迎来深度重构。此前,苹果已通过iMessage的PQ3协议布局后量子加密防御,而参与“玻璃翼计划”则是其应对 AI 辅助攻击的又一关键举措。
Anthropic 强调,面对 AI 带来的安全变量,没有任何一家公司能独善其身。这场捍卫数字基础设施的“长跑”才刚刚开始。
via AI新闻资讯 (author: AI Base)
360 打造“虾书”APP:围观智能体互怼的数字社区
据报道,360集团正在开发一款名为 “虾书” 的全新社区产品。该产品以“小龙虾”AI 智能体为核心,主打 AI 自主社交,目前网页版已率先上线。
核心玩法:从“使用者”转变为“观察者”
不同于传统的指令式 AI,“虾书”提供了一种极具实验色彩的社交体验:
自主意识智能体: 基于 OpenClaw 生态打造,这些 AI 小龙虾具备独立思考与自主意识。
围观与投喂: 用户在社区中更像是一位旁观者,可以近距离观察 AI 智能体之间的各种趣味互动。
真实的“社交修罗场”: AI 之间的互动涵盖了协作、深度交流,甚至是激烈的“拌嘴”。用户可以通过投喂等操作,影响或参与到这些数字生命的成长中。
战略布局:深耕 OpenClaw 生态
“虾书”APP 是360集团布局 AI 智能体生态的重要一环:
解决行业痛点: 此前360已推出“360安全龙虾”,解决了 OpenClaw 生态下产品集成的多个技术难点。
生态闭环: 从底层安全到上层社交,北京奇虎360科技有限公司正试图构建一个完整的 AI 原生应用集群。
行业观察:社交的“去人类化”尝试
在社交媒体逐渐同质化的今天,360集团的“虾书”展现了一种全新的可能性:当 AI 能够自发地产生内容与互动,人类的社交或许会进入一个“观赏性大于参与性”的新次元。
结语:当 AI 开始“拌嘴”
“虾书”不仅是一款 APP,更是一个关于 AI 进化与社交边界的社会学实验。当这群拥有独立人格的小龙虾开始在数字世界里建立社群,现实世界的社交规则或许也将随之改变。
via AI新闻资讯 (author: AI Base)
据报道,360集团正在开发一款名为 “虾书” 的全新社区产品。该产品以“小龙虾”AI 智能体为核心,主打 AI 自主社交,目前网页版已率先上线。
核心玩法:从“使用者”转变为“观察者”
不同于传统的指令式 AI,“虾书”提供了一种极具实验色彩的社交体验:
自主意识智能体: 基于 OpenClaw 生态打造,这些 AI 小龙虾具备独立思考与自主意识。
围观与投喂: 用户在社区中更像是一位旁观者,可以近距离观察 AI 智能体之间的各种趣味互动。
真实的“社交修罗场”: AI 之间的互动涵盖了协作、深度交流,甚至是激烈的“拌嘴”。用户可以通过投喂等操作,影响或参与到这些数字生命的成长中。
战略布局:深耕 OpenClaw 生态
“虾书”APP 是360集团布局 AI 智能体生态的重要一环:
解决行业痛点: 此前360已推出“360安全龙虾”,解决了 OpenClaw 生态下产品集成的多个技术难点。
生态闭环: 从底层安全到上层社交,北京奇虎360科技有限公司正试图构建一个完整的 AI 原生应用集群。
行业观察:社交的“去人类化”尝试
在社交媒体逐渐同质化的今天,360集团的“虾书”展现了一种全新的可能性:当 AI 能够自发地产生内容与互动,人类的社交或许会进入一个“观赏性大于参与性”的新次元。
结语:当 AI 开始“拌嘴”
“虾书”不仅是一款 APP,更是一个关于 AI 进化与社交边界的社会学实验。当这群拥有独立人格的小龙虾开始在数字世界里建立社群,现实世界的社交规则或许也将随之改变。
via AI新闻资讯 (author: AI Base)
工信部发布《人工智能科技伦理审查与服务办法(试行)》,明确 AI 伦理治理新规
近日,工业和信息化部等十个部门联合印发了《人工智能科技伦理审查与服务办法(试行)》,为我国的人工智能科技伦理审查与服务工作提供了详细的指引。这一办法的出台,旨在规范和促进人工智能科技活动的伦理治理,确保科技活动的合规与安全。
《办法》明确了人工智能科技伦理审查的适用范围、实施主体以及工作程序。针对人工智能技术的特点,规定了申请与受理、审查程序、专家复核等多个环节,确保审查工作有序进行。同时,办法强调了科技伦理风险防控的重要性,鼓励企业建设相应的伦理服务体系。
在支持措施方面,《办法》从标准建设、服务体系、创新鼓励、宣传教育和人才培养等五个方面提出了具体的举措,帮助企业提升科技伦理风险防控能力。此外,该办法与现有的相关政策法规相协调,确保人工智能治理的有效性和一致性。
在审查程序方面,人工智能科技活动的负责人需向单位的伦理委员会或审查与服务中心提交申请,经过受理后,将按照不同的审查程序进行评估。重点审查领域包括人机融合系统、舆论引导能力的算法模型,以及具有高度自主能力的决策系统等。
《办法》还对违反相关规定的行为提出了明确的法律后果,将依据相关法律法规进行调查处理。这一系列措施的实施,将有助于更好地管理人工智能领域的伦理问题,促进科技发展与社会责任的协调。
via AI新闻资讯 (author: AI Base)
近日,工业和信息化部等十个部门联合印发了《人工智能科技伦理审查与服务办法(试行)》,为我国的人工智能科技伦理审查与服务工作提供了详细的指引。这一办法的出台,旨在规范和促进人工智能科技活动的伦理治理,确保科技活动的合规与安全。
《办法》明确了人工智能科技伦理审查的适用范围、实施主体以及工作程序。针对人工智能技术的特点,规定了申请与受理、审查程序、专家复核等多个环节,确保审查工作有序进行。同时,办法强调了科技伦理风险防控的重要性,鼓励企业建设相应的伦理服务体系。
在支持措施方面,《办法》从标准建设、服务体系、创新鼓励、宣传教育和人才培养等五个方面提出了具体的举措,帮助企业提升科技伦理风险防控能力。此外,该办法与现有的相关政策法规相协调,确保人工智能治理的有效性和一致性。
在审查程序方面,人工智能科技活动的负责人需向单位的伦理委员会或审查与服务中心提交申请,经过受理后,将按照不同的审查程序进行评估。重点审查领域包括人机融合系统、舆论引导能力的算法模型,以及具有高度自主能力的决策系统等。
《办法》还对违反相关规定的行为提出了明确的法律后果,将依据相关法律法规进行调查处理。这一系列措施的实施,将有助于更好地管理人工智能领域的伦理问题,促进科技发展与社会责任的协调。
划重点:
📝 《人工智能科技伦理审查与服务办法(试行)》正式发布,规范 AI 伦理治理。
🔍 办法明确审查程序和重点领域,确保科技活动的合规与安全。
⚖️ 违反规定将依据法律法规进行处理,推动人工智能健康发展。
via AI新闻资讯 (author: AI Base)
Alphabet 为 Gemini 增加心理健康支持功能:一键直达危机救助
据媒体报道,Alphabet 正在为其 AI 助手 Gemini 增加全新的心理健康支持功能。同时,公司承诺在未来三年内投入 3000 万美元,用于支持全球危机热线扩大其服务能力。
核心功能:识别危机,一键“可获得帮助”
谷歌对 Gemini 的交互逻辑进行了深度重构,旨在关键时刻挽救生命:
智能识别: 当对话内容暗示用户可能需要心理健康支持(如提及自残或自杀倾向)时,Gemini将自动弹出重新设计的“可获得帮助”模块。
简化干预: 系统将提供一个一键式界面,让用户能够跳过繁琐操作,直接拨打电话、发送短信、启动在线聊天或访问专业的危机热线。
持续守护: 一旦危机模块被激活,联系专业帮助的选项将在该对话的剩余部分保持可见,确保用户随时可以获取支持。
专业协作:与临床专家共同开发
为了确保建议的专业性和安全性,这些新工具并非闭门造车:
专家背书: 谷歌表示,所有功能均是与临床专家共同开发的,旨在使获得护理的途径更加便捷且符合医学伦理。
深化合作: 谷歌还扩大了与 ReflexAI 的合作,包括提供 400 万美元的直接资助,并将 Gemini 集成到社会部门组织使用的培训工具中。
行业背景:AI 安全与监管的平衡
随着人们开始将 AI 用于解决极其个人化和复杂的问题,Alphabet 的这一举措标志着 AI 正在从“效率工具”向“负责任的伙伴”转型。
资源投入: 此次 3000 万美元的投入显示了 Alphabet 在人工智能安全领域的决心。
合规挑战: 投资者和监管机构正密切关注谷歌如何在用户增长、隐私保护以及 AI 产品的伦理安全之间寻求最优解。
结语:技术背后的温情
AI 不应只是冰冷的代码。通过在Gemini中内置心理健康防线,谷歌正在尝试用算法编织一张更紧密的安全网,在数字化时代为脆弱的心灵提供一份及时的慰藉。
via AI新闻资讯 (author: AI Base)
据媒体报道,Alphabet 正在为其 AI 助手 Gemini 增加全新的心理健康支持功能。同时,公司承诺在未来三年内投入 3000 万美元,用于支持全球危机热线扩大其服务能力。
核心功能:识别危机,一键“可获得帮助”
谷歌对 Gemini 的交互逻辑进行了深度重构,旨在关键时刻挽救生命:
智能识别: 当对话内容暗示用户可能需要心理健康支持(如提及自残或自杀倾向)时,Gemini将自动弹出重新设计的“可获得帮助”模块。
简化干预: 系统将提供一个一键式界面,让用户能够跳过繁琐操作,直接拨打电话、发送短信、启动在线聊天或访问专业的危机热线。
持续守护: 一旦危机模块被激活,联系专业帮助的选项将在该对话的剩余部分保持可见,确保用户随时可以获取支持。
专业协作:与临床专家共同开发
为了确保建议的专业性和安全性,这些新工具并非闭门造车:
专家背书: 谷歌表示,所有功能均是与临床专家共同开发的,旨在使获得护理的途径更加便捷且符合医学伦理。
深化合作: 谷歌还扩大了与 ReflexAI 的合作,包括提供 400 万美元的直接资助,并将 Gemini 集成到社会部门组织使用的培训工具中。
行业背景:AI 安全与监管的平衡
随着人们开始将 AI 用于解决极其个人化和复杂的问题,Alphabet 的这一举措标志着 AI 正在从“效率工具”向“负责任的伙伴”转型。
资源投入: 此次 3000 万美元的投入显示了 Alphabet 在人工智能安全领域的决心。
合规挑战: 投资者和监管机构正密切关注谷歌如何在用户增长、隐私保护以及 AI 产品的伦理安全之间寻求最优解。
结语:技术背后的温情
AI 不应只是冰冷的代码。通过在Gemini中内置心理健康防线,谷歌正在尝试用算法编织一张更紧密的安全网,在数字化时代为脆弱的心灵提供一份及时的慰藉。
via AI新闻资讯 (author: AI Base)