https://api.oaibest.com - API中转2.8折起
https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
《自然》2025年度十大科学人物发布 DeepSeek创始人梁文锋入选

日前,国际权威期刊《自然(Nature)》发布2025年度十大科学人物榜单,中国人工智能企业深度求索(DeepSeek)创始人梁文锋和中国科学院深海科学家杜梦然入选。此外,还有8位国际学者,分别来自公共卫生、天文学等前沿领域。

《自然》表示,2025年1月,DeepSeek突然发布其强大且低成本的R1大模型,这立刻让世界意识到“美国在AI领域并非遥遥领先”。

引发这场震动的,是低调且极少公开露面的创始人——梁文锋。

《自然》称,R1作为推理型大语言模型,擅长将复杂任务(如数学和编程)分步骤解决。

在同类产品中,该模型率先以开放权重形式发布,意味着该模型可免费下载并进行二次开发,且成功带动了中美多家企业陆续发布自有开放模型。

有AI专家指出,R1在诸多能力上可与美国顶尖模型比肩,而其训练成本却远低于竞争对手,甚至只有对手的十几分之一。

据了解,今年9月,由DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文登上《自然》的封面。

本次论文披露了更多模型训练的细节,并正面回应了模型发布之初的蒸馏质疑。

《自然》评价道:目前几乎所有主流的大模型都还没有经过独立同行评审,这一空白“终于被DeepSeek打破”。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
OpenAI发现AI平均每天为员工节省近1小时

根据ChatGPT开发商在市场对人工智能经济效益持持续怀疑态度之际进行的一项大规模调查,OpenAI的人工智能产品平均每天为员工在专业任务上节省大约40至60分钟。根据对一百家公司的9000名员工的调查,数据科学、工程和通信等行业的员工以及会计等特定岗位,报告称使用AI节省的时间最多。调查发现,四分之三的员工表示,在工作中使用AI提高了他们工作的速度或质量。与此同时,Anthropic公司上周发布报告估计,其AI工具Claude将人们完成工作任务所需时间缩短了80%等。该结果基于对10万条用户对话的分析。上述这些报告未经同行评审。

—— 彭博社

via 风向旗参考快讯 - Telegram Channel
Palmer Luckey:应允许AI在战场上决定谁生谁死

美国虚拟现实设备公司 Oculus 创始人、军工科技企业 Anduril 创办人 Palmer Luckey 近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。

iframe (www.youtube.com)

Luckey 在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。 在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。

他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。 Luckey 直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。

这一表态与 Anduril 的业务方向高度一致,该公司自 2017 年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为 Lattice 的人工智能指挥与控制平台将这些硬件整合到统一系统中。 公司此前已经展示过包括“自杀式无人机”在内的多种 AI 军事装备,引发外界对战场“高度自动化”的更多担忧。

2024 年底,Anduril 宣布与 OpenAI 建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。 与此同时,科技企业在是否参与军用 AI 研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将 AI 应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。

iframe (www.youtube.com)

在 AI 装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。 2024 年 5 月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用 AI 来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。

学界与业界对于让 AI 接近“核按钮”的设想尤为不安。 去年有研究团队使用 GPT-4、GPT-3.5、Claude 2.0、Llama-2-Chat 和 GPT-4-Base 等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。

随着 AI 战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。 Palmer Luckey 的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
DeepSeek V3到V3.2的进化之路,一文看全

https://mp.weixin.qq.com/s/qXq5tRQOGSAQy719fd13Ag
宇树王兴兴谈把机器人做得像人:老百姓喜欢 更愿意买单

在2025腾冲科学家论坛上,宇树科技创始人王兴兴深入阐释了人形机器人研发背后的“拟人化”逻辑与现实挑战。王兴兴表示:“老百姓喜欢长得像人的。”现实就是,机器人长得越好看、越像人,消费者就更愿意买单。

他同时提到,当前AI技术高度依赖数据驱动,数据质量直接决定AI能力上限。而就人形机器人而言,高质量、大规模的动作与行为数据仍处于稀缺状态。

王兴兴向与会者展示了宇树科技在该领域的进展:通过预先采集真人运动数据,并在AI环境中进行训练,机器人已能够复现人类的多样化动作,实现“人怎么动,机器人就怎么动”。

王兴兴也坦言,当前具身智能领域的AI模型仍显不足,“目前阶段类似ChatGPT问世前一至三年的状态——方向已清晰,但突破性成果尚未完全显现。”

他认为,若机器人能在日常生活中80%的陌生场景中,通过语言或文字指令完成约80%的任务,便可视为具身智能领域的“GPT时刻”。目前机器人在单一任务中表现出色,但一旦物体或环境发生变化,尤其是面对多任务叠加时,成功率会显著下降,这反映出机器人在泛化与推理能力上的短板。

最后,王兴兴透露:“明年的腾冲科学家论坛,或许我不必亲自到场,可以派遣机器人代表我参会。我可以在杭州远程操控,让它同步我的语言和动作,实现实时交互。这项技术已经具备可行性,预计明年可投入实际应用。”

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
俄罗斯AI发展:缺芯人才流失 大模型落后

俄罗斯总统普京曾多次表示,俄罗斯必须在AI领域引领世界。但现实情况是,当其他国家你追我赶时,俄罗斯却成了旁观者。就在美中竞相争夺AI模型与应用主导权,欧洲和中东各国持续投入资源建设算力基础设施之际,乌克兰战争已使俄罗斯曾经远大的AI抱负偏离了轨道。在俄语版AI模型评测平台LM Arena上,最顶尖的俄罗斯模型仅排名第二十五位,甚至落后于早期版本的ChatGPT和谷歌Gemini。西方制裁切断了俄罗斯获取计算机芯片等关键硬件的渠道,并制约了其国内生产能力。莫斯科还严重依赖中国。雪上加霜的是人才流失问题。自俄乌冲突爆发以来,顶尖人才持续逃离俄罗斯。

—— 凤凰网科技华尔街日报

via 风向旗参考快讯 - Telegram Channel
反 AI 活动人士失踪两周,警方警告他可能携带武器且危险

2025-12-07 21:34 by 探险家学院3:双螺旋

27 岁的 Sam Kirchner 在旧金山参与组建了反 AI 组织 Stop AI。该组织遵循典型的行动主义剧本:散发传单,每月组织一次游行示威,组织讨论,制作 T 恤。该组织领导人明确表示反对暴力,认为暴力在道德上不可接受。但随着生成式 AI 的流行,Kirchner 觉得 AI 对人类构成迫在眉睫的生存威胁,同时对组织的进展缓慢或力度不够而感到沮丧和愤怒。最终他在攻击了 Stop AI 现任领导人后与组织决裂,同时销声匿迹。他已经失踪了两周,朋友担心他的安全,而旧金山警方则警告他可能持有武器,可能会袭击 OpenAI 的雇员。哲学家、历史学者、熟悉 Kirchner 且参与过 Stop AI 活动的 Émile P. Torres 认为,人很容易陷入末日论,这种 AI 末日论在硅谷随处可见。Stop AI 成员不相信他会对公众构成威胁,他们更担心其身心健康。

https://www.theatlantic.com/technology/2025/12/sam-kirchner-missing-stop-ai/685144/
https://futurism.com/artificial-intelligence/anti-ai-activist-danger

#USA

via Solidot - Telegram Channel
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]