https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
OpenAI 官方状态页显示,部分用户在访问 ChatGPT 网页版时可能会遇到回复内容为空的问题。目前 OpenAI 已确认该故障并将其列为“性能退化”状态,技术团队正在对受影响的服务组件进行调查。
OpenAI Status
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
多项最新语言学研究证实,AI正在反向塑造人类的说话方式,让人类语言陷入前所未有的同质化与平庸化危机。资深沟通教练梅雷迪思・格伦代伊长期观察亚马逊AWS、谷歌、松下等跨国企业领袖的沟通模式后发现,一种被称为“机器人谈话”的现象正在职场快速蔓延,人们开始像给大语言模型下指令一样与同事交谈,对话失去了有温度的情感联结,取而代之的是脱离语境的冰冷指令与极致功利化的效率表达。
更令人警惕的是,AI正在系统性过滤人类语言的表达多样性,这也是人类历史上首次出现“技术反向教导人类说话”的现象。
德国马克斯・普朗克人类发展研究所分析超30万条油管影片、77万集播客内容后发现,在ChatGPT发布后的18个月里,部分特定词汇的使用频率出现统计学上的显著增长。这些词汇并非更具实用性,只是AI训练过程中过度偏好这类“听起来专业”的表达,并通过海量互动将其反向植入了人类的语言系统。
这种被学界称为渗透效应的现象,还有着更直观的数据佐证。美国佛罗里达州立大学研究团队分析2210万字的无脚本对话后发现,大语言模型高频使用的AI语言,在人类口语中的出现频率涨幅达到35%至51%,与这类词汇的同义词使用频率的稳定状态形成鲜明对比。
研究指出,AI生成的文本天然倾向于安全、标准、无害的表达,这虽拉高了沟通的平均品质,却彻底抹平了个体表达的独特性。
当语言变成千篇一律的加工产物,看似干练却失去了灵魂,学术界已开始担忧,这种语言同质化最终会引发集体智能受损,当所有人都用同一套经算法校准的逻辑与词汇表达,人类对复杂问题的诠释将不断收敛,最终导致思考路径的单一化。
值得注意的是,AI带来的语言变革,与过往社交媒体催生的语言变迁有着本质区别。TikTok等短影音平台带动的流行语,传播动力源于人类的创意与情绪表达,核心是人与人的创意交流,本质是在扩张语言的边界。
而AI始终倾向于选择概率最高、最平庸的词汇组合,无意识地将人类语言拉向庸俗的平均值。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
🤖 估值 3800 亿美元的 Anthropic 推行透明扁平文化:员工可在 Slack 直接挑战 CEO
Anthropic 成长主管 Amol Avasare 日前分享,这家估值 3800 亿美元的 Claude 开发商正通过极度透明的沟通机制对抗大企业病。公司内部为每位员工(含 CEO Dario Amodei)设立公开的 Slack「笔记本」频道,打破部门间信息孤岛,鼓励跨层级直接交流。
Avasare 指出,公司文化明确鼓励员工直接挑战高层决策。在近期一场全公司大会后,有员工因不认同 Amodei 的观点,直接在其 Slack 频道留言质疑,引发大规模公开辩论。这种打破传统「指挥链」的做法,旨在防范群体迷思,确保涉及 AI 安全的高风险研究能获得基层及时反馈。
mashdigi
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic 成长主管 Amol Avasare 日前分享,这家估值 3800 亿美元的 Claude 开发商正通过极度透明的沟通机制对抗大企业病。公司内部为每位员工(含 CEO Dario Amodei)设立公开的 Slack「笔记本」频道,打破部门间信息孤岛,鼓励跨层级直接交流。
Avasare 指出,公司文化明确鼓励员工直接挑战高层决策。在近期一场全公司大会后,有员工因不认同 Amodei 的观点,直接在其 Slack 频道留言质疑,引发大规模公开辩论。这种打破传统「指挥链」的做法,旨在防范群体迷思,确保涉及 AI 安全的高风险研究能获得基层及时反馈。
mashdigi
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
Some users may experience empty response from ChatGPT in web
Status: Investigating
We are investigating the issue for the listed services.
Affected components
● Conversations (Degraded performance)
via OpenAI status
Status: Investigating
We are investigating the issue for the listed services.
Affected components
● Conversations (Degraded performance)
via OpenAI status
科技史上最贵的饭局:扎克伯格痛失DeepMind始末
https://mp.weixin.qq.com/s/27l7Ckx_FL53JVDeErvi6Q
最近,著名记者、作家塞巴斯蒂安・马拉比出了本新书,名叫《无限机器:德米斯・哈萨比斯、DeepMind 与超级智能的探索》。
书中,他披露了一段扎克伯格与 DeepMind 失之交臂的往事,并授权《华尔街日报》独家节选。我们在其中发现了一些有趣的细节。
https://mp.weixin.qq.com/s/27l7Ckx_FL53JVDeErvi6Q
AI Futures Project 发布 2026 年第一季度更新报告,受 Gemini 3、GPT-5.2 及 Claude Opus 4.6 等新模型表现超预期影响,研究人员显著提前了通用人工智能(AGI)与自动化编程(AC)的时间线预测。其中,自动化编程的实现中值预测已从 2029 年底提前至 2028 年中;而在所有认知任务中达到顶级专家水平的 AI(TED-AI)实现预测也整体提前了约 1.5 年。
报告分析显示,METR 编码时间水平的翻倍速度已从 5.5 个月缩短至 4 个月左右。此外,AI 编程工具在商业化进程中表现强劲,Claude Code 发布仅 9 个月,其年化收入已突破 25 亿美元。研究团队认为,代理化编码(Agentic Coding)的进展速度远超此前预期,行业内关于自动化 AI 研发即将实现的共识正在进一步增强。
AI Futures Project
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
微软在大力向消费者和企业推广其人工智能产品、并在 Windows 11 深度集成 Copilot 的同时,却在官方文件中将这款 AI 服务定位为“娱乐用途”。 更新于去年 10 月的《Microsoft Copilot 使用条款》明确写道,这一大型语言模型(LLM)“仅供娱乐目的”,用户不应将其用于提供重要建议,并需自担风险。
这一表述与微软近期围绕 Copilot+ PC 及面向企业用户的宣传形成鲜明反差,引发外界对其信心程度的质疑。
在该使用条款中,微软写道:“Copilot 仅供娱乐用途。它可能会犯错,且可能无法按预期工作。不要在重要建议上依赖 Copilot。使用 Copilot 须自担风险。” 报道指出,类似的免责声明并非微软独有,其他 AI 大模型服务商也采取了接近的表述。 例如 xAI 在其服务条款中提醒用户,人工智能“快速演进且具有概率性”,因此生成的内容可能出现“幻觉”、包含冒犯性内容、不能准确反映真实人物或事实,甚至完全不适合用户预期用途。
尽管生成式 AI 已被证明在写作、编程等场景可以提升效率,但它仍只是一个缺乏责任主体的工具,无法为自身错误承担任何法律或现实后果。 因此,使用者在采信其结果时必须保持谨慎,对输出保持怀疑态度并进行交叉核查。 然而,报道也提醒,哪怕用户知道这些技术局限,人类仍容易受到“自动化偏见”的影响,即天然更倾向相信机器给出的答案,而忽略与之相矛盾的数据或线索。
在当前 AI 生成内容愈发自然、看上去愈发“像真的”的背景下,这种自动化偏见的风险被进一步放大。 文章指出,当 AI 能在表面上给出逻辑自洽、措辞权威的回答时,用户更容易在“只看一眼”的情况下就选择相信,从而在无形中放松警惕。 在这种情况下,厂商一方面通过广告与产品整合,鼓励用户在工作和生活中广泛采用 AI,另一方面又在使用条款中以标准化免责声明切割责任,这种张力也成为当前 AI 产业发展中一个颇具争议的现象。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
在大家焦急等待DeepSeek V4的同时,美国的AI发展也没有停歇,OpenAI去年底启动红色警报,专注打造一个超级强大的AI,有可能就是下一代的GPT-6,最新消息称会在4月14日发布。
网友iruletheworldmo爆料称,来自OpenAI团队的信息显示4月14日GPT-6就要发了,预训练已经在3月17日完成,后训练也已经完成,东西已经准备好,就等发布了。
GPT-6也会重点提升编码、推理及智能体任务能力,比GPT-5.4提升40%以上。
原生多模态也是必须的,文本、音频、图像、视频一架构。
此前OpenAI终止了SORA视频大模型的业务,跟迪士尼10亿美元的合作也告吹,为的就是全面投入GPT-6,甚至产品组织都改成了AGI Deployment,全面迎接AGI时代。
OpenAI的高管Brockman表示AGI已经实现了70-80%,内部认为GPT-6将会弥补剩余的大部分,言外之意就是GPT-6实现AGI了。
GPT-6的上下文是2M大小,两倍于GPT-5.4,价格是2.5/12美元,也就是百万输入、输出的价格,比GPT-5.4略贵,但还能负担得起。
此外,随着GPT-6的推出,OpenAI之前强调的超级应用也会落地,会把ChatGPT、Codex编程及Atlas浏览器合而为一,成为一个功能强大又全面的超级智能体。
总之,这个爆料虽然是网友口中说的,但是对AGI的吹嘘倒是很符合OpenAI一贯的风格,只是这篇爆料的真实性被其他网友狂喷一顿,先凑合看吧。
至于GPT下一个产品,此前的爆料说是GPT-5.5,可信度比这个高一些,提升肯定是有的,但距离AGI恐怕还有很长距离,现在AGI这个目标已经被很多AI公司吹嘘的泛滥了。
倒是OpenAI推出超级应用的说法比较靠谱,之前传闻也是如此,单纯聊天对话的ChatGPT已经意义不大了,OpenAI需要打造一个更有使用黏性的APP。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)