https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
在AI大模型训练/推理上,NVIDIA的显卡无疑是目前使用最多的,AMD、Intel及谷歌等公司份额没法比,问题来了,NVIDIA到底强在哪里?这里不用提什么CUDA生态优势,也不用说AI算子等参数,Artificial Analysis直接对比了当前的三大推理方案的实际表现,分别使用谷歌TPU v6e、AMD MI300X 及NVIDIA H100/B200来对比。
测试的内容比较多,不过我们只看一个综合性的就够了,在30Token/s速度下每百万输入输出的成本,跑的模型是Llama 3.3 70B。
在这方面,H100的成本是1.06美元,H200也只有1.17美元,B200 TensorRT是1.23美元,B200是1.45美元,AMD的MI300X是2.24美元,而谷歌的TPU v6e是5.13美元。
对比下来,N卡相对AMD是至少2倍的性价比优势,对比谷歌则是5倍左右的优势,差距非常明显。
哪怕是用NVIDIA最新最贵的B200显卡,成本提升也不算太明显,毕竟性能是大增的,比AMD及谷歌的依然有很大优势。
现在可以说,AMD及谷歌当前的AI卡还是差不少的,但两家下一代产品提升很猛,AMD的MI400X系列最多432GB HBM4显存,谷歌的TPU v7据说也是几倍的性能提升,届时可能改写这个评测结果。
当然,NVIDIA也不会坐以待毙,下一代的Rubin显卡也发布了,明年也会陆续上市,有望进一步扩大差距。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
11月28日,据《金融时报》报道,OpenAI的数据中心合作伙伴们即将背上近1000亿美元的借贷,这些借贷都与正在亏损的OpenAI有关。眼下,OpenAI正受益于这一轮由债务推动的支出热潮,而自身却无需承担财务风险。
根据《金融时报》的分析,软银、甲骨文和CoreWeave已借入至少300亿美元,用于投资OpenAI或帮助其建设数据中心。投资集团Blue Owl Capital和Crusoe等计算基础设施公司也依赖与OpenAI的交易来偿还约280亿美元的贷款。
据知情人士透露,一批银行正在洽谈向甲骨文和数据中心建设商Vantage额外提供380亿美元贷款,用于为OpenAI建设更多数据中心。该交易预计将在未来数周内完成。
OpenAI高管曾表示,计划大举借债来协助支付这些合同费用,但截至目前,财务负担主要落在了其合作方及合作方的贷款机构身上。“这一直是我们的策略,”一位OpenAI高管表示,“那就是想法利用其它公司的资产负债表。”
OpenAI各合作伙伴背负的债务
这种依赖OpenAI的贷款规模,将令市场进一步审视该公司今年签署的价值1.4万亿美元的合约。这些合约涉及未来八年向芯片制造商和数据中心公司采购算力资源。如此庞大的合约金额,远超OpenAI今年预计实现的200亿美元年化营收。
据知情人士透露,OpenAI自身资产负债表上几乎没有任何债务。OpenAI虽在去年获得由多家美国银行提供的40亿美元信贷额度,但该公司至今尚未动用这笔资金。
OpenAI表示:“建设AI基础设施是我们为满足激增的全球需求所能做的最重要的事情,当前的算力短缺是限制OpenAI增长的最大瓶颈。”
截至发稿,软银、Vantage、CoreWeave、Crusoe及Blue Owl均拒绝置评。甲骨文公司未予回应。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
三星电子近期对其高带宽存储器(HBM)开发团队进行了组织调整,撤销原隶属于半导体业务DS部门下的HBM开发团队,相关人员整体并入DRAM开发室。这一变动引发市场对三星HBM业务推进节奏与内部协同效率的关注。
在调整安排上,原HBM团队成员将转入DRAM开发室下属的设计团队,继续负责下一代HBM产品与技术研发。此前主导HBM团队的孙永洙被任命为设计团队负责人,统筹相关项目推进。
接下来,团队将聚焦HBM4、HBM4E等新产品的设计优化与工艺验证。三星预计本周完成组织调整,并于下月初召开全球战略会议,审议明年业务规划。
业务方面,三星近年来持续加大HBM领域投入,已与英伟达、AMD、OpenAI、博通等多家科技企业建立合作。公司以HBM3与HBM3E的量产经验为基础,持续提升堆叠封装、带宽、能效及可靠性等核心能力。韩国媒体分析认为,将HBM开发整合进DRAM体系,有助于在制程演进、设计验证与量产导入环节形成更紧密的协同。
从市场竞争来看,三星在今年第二季度全球HBM市场中的排名曾下滑至第三,面临阶段性竞争压力。公司预计,随着HBM4供应规模逐步扩大,其市场份额有望自明年起回升。
据TrendForce预测,到2026年,三星在全球HBM市场的占有率有望突破30%,这也为其强化先进存储布局提供了信心支撑。
行业观察人士指出,HBM作为支撑人工智能训练、推理及高性能计算的关键存储部件,已成为存储厂商竞相布局的战略要地。三星通过将HBM团队整合至DRAM开发体系,有望提升资源统筹与技术迭代效率,增强在高端存储市场的竞争力。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)