https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
据《华尔街日报》报道,OpenAI 已与芯片初创公司 Cerebras 达成协议,将在未来三年内向其购买高达 750 兆瓦的计算能力。该笔交易总价值预计超过 100 亿美元。
(路透社)
via 茶馆 - Telegram Channel
OpenAI partners with Cerebras
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News
Cerebras 专门打造用于加速 AI 模型生成较长输出的定制系统。它的速度优势来自把海量计算、内存和带宽集中到一块巨型芯片上,从而消除了传统硬件在推理时的瓶颈。
把 Cerebras 纳入我们的算力组合,核心就是让我们的 AI 响应更快。无论是提出复杂问题、生成代码、创作图像,还是驱动 AI 代理,后台都有一个循环:你发出请求,模型“思考”,再返回结果。AI 能实现实时响应时,用户会更频繁使用、停留更久,并运行更高价值的工作负载。
我们将分阶段把这套低延迟能力并入推理堆栈,并逐步覆盖更多类型的工作负载。
“ OpenAI 的计算策略是构建一个弹性的组合,将合适的系统匹配到合适的工作负载。 Cerebras 为我们的平台增加了一种专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,也为把实时 AI 扩展到更多人群打下了更坚实的基础,” OpenAI 的 Sachin Katti 说。
“我们很高兴能与 OpenAI 合作,把世界领先的 AI 模型带到世界上最快的 AI 处理器上。正如宽带改变了互联网,实时推理将改造 AI,开启构建和使用 AI 模型的全新方式,” Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示。
这些算力将分多批上线,直至 2028 年。
----------------------
Cerebras builds purpose-built AI systems to accelerate long outputs from AI models. Its unique speed comes from putting massive compute, memory, and bandwidth together on a single giant chip and eliminating the bottlenecks that slow inference on conventional hardware.
Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform. That means faster responses, more natural interactions, and a stronger foundation to scale real-time AI to many more people,” said Sachin Katti of OpenAI.
“We are delighted to partner with OpenAI, bringing the world’s leading AI models to the world’s fastest AI processor. Just as broadband transformed the internet, real-time inference will transform AI, enabling entirely new ways to build and interact with AI models,” said Andrew Feldman, co-founder and CEO of Cerebras.
The capacity will come online in multiple tranches through 2028.
via OpenAI News
[API (us-east-1.api.x.ai)] Models unavailable
Status: ACTIVE
Severity: outage
----------------------
Updates:
Wed, 14 Jan 2026 18:53:15 GMT
We are currently investigating the issue
The models grok-4-1-fast-non-reasoning and grok-4-1-fast-reasoning are currently unavailable. We are investigating the issue and will post another update in 10 minutes.
via xAI System Status
Status: ACTIVE
Severity: outage
----------------------
Updates:
Wed, 14 Jan 2026 18:53:15 GMT
We are currently investigating the issue
The models grok-4-1-fast-non-reasoning and grok-4-1-fast-reasoning are currently unavailable. We are investigating the issue and will post another update in 10 minutes.
via xAI System Status
Google推出Gemini“个人智能”功能 深度整合Gmail、搜索和YouTube记录
Google正在为其 Gemini 人工智能聊天机器人加入一项重要升级:用户可以选择将 Gmail、Google Photos、Google 搜索以及 YouTube 观看记录与 Gemini 连接,从而获得更加个性化的回答,这一新能力被Google称为“Personal Intelligence(个人智能)”。
iframe (storage.googleapis.com)
过去,当 Gemini 还叫 Bard 时,Google已经允许它连接部分Google应用和服务,从用户账户中提取信息;Gemini 目前也能够在一定程度上记住并调用过往对话内容。不过,这次的“个人智能”功能在此基础上更进一步,不仅能从这些服务中调取信息,还能在不同数据源之间进行综合推理,而不需要用户每次都明确指定要从哪个应用中抓取资料。Google表示,该功能由最新的 Gemini 3 系列大模型提供支持,旨在让 Gemini 在理解用户上下文和个人习惯方面更贴近“私人助手”的角色。
Google举的示例是,某位员工两周前在给 2019 款本田小型面包车更换轮胎时,排队期间突然发现自己并不清楚轮胎规格,于是向 Gemini 提问。一般的聊天机器人可以根据车型信息查询出标准轮胎参数,但 Gemini 的做法更深入:它在回答规格之外,还给出适合日常通勤和适合全气候路况的不同轮胎选项,并引用了用户在 Google 相册中关于全家自驾前往俄克拉何马州旅行的照片记录,推断出该家庭有长途旅行和多种天气条件下用车的需求。
这一设计体现了Google对“个人智能”的定位:不仅是调用用户数据,而是跨邮件、照片和搜索记录进行综合理解,进而生成更贴合个人生活场景的建议或答案。不过,启用该功能需要用户主动选择加入,Google强调这是一个可选项,用户在未开启前,Gemini 不会自动访问这类数据。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Google正在为其 Gemini 人工智能聊天机器人加入一项重要升级:用户可以选择将 Gmail、Google Photos、Google 搜索以及 YouTube 观看记录与 Gemini 连接,从而获得更加个性化的回答,这一新能力被Google称为“Personal Intelligence(个人智能)”。
iframe (storage.googleapis.com)
过去,当 Gemini 还叫 Bard 时,Google已经允许它连接部分Google应用和服务,从用户账户中提取信息;Gemini 目前也能够在一定程度上记住并调用过往对话内容。不过,这次的“个人智能”功能在此基础上更进一步,不仅能从这些服务中调取信息,还能在不同数据源之间进行综合推理,而不需要用户每次都明确指定要从哪个应用中抓取资料。Google表示,该功能由最新的 Gemini 3 系列大模型提供支持,旨在让 Gemini 在理解用户上下文和个人习惯方面更贴近“私人助手”的角色。
Google举的示例是,某位员工两周前在给 2019 款本田小型面包车更换轮胎时,排队期间突然发现自己并不清楚轮胎规格,于是向 Gemini 提问。一般的聊天机器人可以根据车型信息查询出标准轮胎参数,但 Gemini 的做法更深入:它在回答规格之外,还给出适合日常通勤和适合全气候路况的不同轮胎选项,并引用了用户在 Google 相册中关于全家自驾前往俄克拉何马州旅行的照片记录,推断出该家庭有长途旅行和多种天气条件下用车的需求。
这一设计体现了Google对“个人智能”的定位:不仅是调用用户数据,而是跨邮件、照片和搜索记录进行综合理解,进而生成更贴合个人生活场景的建议或答案。不过,启用该功能需要用户主动选择加入,Google强调这是一个可选项,用户在未开启前,Gemini 不会自动访问这类数据。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Increased errors for Auto model
Jan 14, 15:34 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
Jan 14, 15:34 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
💰 微软对 Anthropic AI 的支出预计将达 5 亿美元
据《The Information》报道,微软在人工智能初创公司 Anthropic 上的支出规模正在增长,预计将达到 5 亿美元。该数据反映了微软在相关 AI 领域投入的资金水平。
(财经快讯)
via 茶馆 - Telegram Channel
据《The Information》报道,微软在人工智能初创公司 Anthropic 上的支出规模正在增长,预计将达到 5 亿美元。该数据反映了微软在相关 AI 领域投入的资金水平。
(财经快讯)
via 茶馆 - Telegram Channel
英国首相基尔·斯塔默(Keir Starmer)1月14日向议会表示,埃隆·马斯克旗下的社交平台X正采取行动,以确保完全符合英国法律。此前,英国媒体监管机构Ofcom于周一对X展开调查,指控其Grok AI聊天机器人生成的性暗示深度伪造图像违反了保护公民免受非法内容侵害的职责。斯塔默强调,政府将在必要时采取进一步措施。与此同时,英国技术大臣利兹·肯德尔(Liz Kendall)宣布,一项将制作性深度伪造图像定为刑事犯罪的新法律将于本周生效。X平台此前曾表示已限制付费用户发起此类图像请求,目前尚未对此次合规表态作出直接回应。
(路透社)
via 茶馆 - Telegram Channel
OpenAI正开发一款对标AirPods的AI设备
博主@智慧皮卡丘爆料称,OpenAI正在打造旨在取代 AirPods 的特殊音频产品,内部代号为Sweetpea,预计将与今年9月发布,第一年的产量在 4000万至 5000万台。富士康已经被告知提前准备,在2028年第四季度前生产总共五款设备,包括耳机和触控笔,但Sweetpea是优先生产的产品。已知其硬件设计独一无二,前所未见。设备主体将采用金属材质,外形似鹅卵石,打开后有两个胶囊状设备,可以取出佩戴在用户耳后。这款产品预计将使用2nm手机芯片,Exynos芯片是首选,还有一款定制芯片也已开发完成。且由于该设备使用的材料及组件与智能手机颇为接近,预计这款设备的成本将相当高。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
博主@智慧皮卡丘爆料称,OpenAI正在打造旨在取代 AirPods 的特殊音频产品,内部代号为Sweetpea,预计将与今年9月发布,第一年的产量在 4000万至 5000万台。富士康已经被告知提前准备,在2028年第四季度前生产总共五款设备,包括耳机和触控笔,但Sweetpea是优先生产的产品。已知其硬件设计独一无二,前所未见。设备主体将采用金属材质,外形似鹅卵石,打开后有两个胶囊状设备,可以取出佩戴在用户耳后。这款产品预计将使用2nm手机芯片,Exynos芯片是首选,还有一款定制芯片也已开发完成。且由于该设备使用的材料及组件与智能手机颇为接近,预计这款设备的成本将相当高。
—— 财联社
via 风向旗参考快讯 - Telegram Channel
🇰🇷 韩国“主权AI”竞赛陷入开源引用争议
韩国政府于2025年6月启动为期三年的研发竞赛,目标是在2027年前开发出性能达到OpenAI与谷歌95%水平的本土基础模型,以摆脱对美中技术巨头的依赖。然而,该赛事近期因入围者引用外国开源组件引发争议。在5家入围机构中,有3家被发现在推理部署代码或视觉、音频编码器中使用了中国智谱、DeepSeek以及与阿里、OpenAI相关的开源技术。其中,Upstage公司因代码残留版权标记遭到质疑,随后该公司通过展示训练日志证明其模型为“从零开始”训练,指控方已对此公开道歉。
(科技圈)
via 茶馆 - Telegram Channel
韩国政府于2025年6月启动为期三年的研发竞赛,目标是在2027年前开发出性能达到OpenAI与谷歌95%水平的本土基础模型,以摆脱对美中技术巨头的依赖。然而,该赛事近期因入围者引用外国开源组件引发争议。在5家入围机构中,有3家被发现在推理部署代码或视觉、音频编码器中使用了中国智谱、DeepSeek以及与阿里、OpenAI相关的开源技术。其中,Upstage公司因代码残留版权标记遭到质疑,随后该公司通过展示训练日志证明其模型为“从零开始”训练,指控方已对此公开道歉。
(科技圈)
via 茶馆 - Telegram Channel
“主权AI”撞上开源现实:韩国本土大模型大赛因“用了中国代码”掀起争议
韩国政府在 2025 年 6 月启动三年竞赛,要做出能在 2027 年对标 OpenAI/谷歌、性能达 95% 水平的“韩国自研基础模型”,以摆脱对美中技术巨头的依赖。
但 5 家入围者里有 3 家被发现在推理/部署代码或视觉、音频编码器等模块上引用了外国开源组件(包括中国智谱、DeepSeek,以及被指与阿里/OpenAI相关的编码器),其中 Upstage 还因代码里残留版权标记引发舆论,随后通过直播日志证明训练“从零开始”,指控方道歉。
华尔街日报
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
韩国政府在 2025 年 6 月启动三年竞赛,要做出能在 2027 年对标 OpenAI/谷歌、性能达 95% 水平的“韩国自研基础模型”,以摆脱对美中技术巨头的依赖。
但 5 家入围者里有 3 家被发现在推理/部署代码或视觉、音频编码器等模块上引用了外国开源组件(包括中国智谱、DeepSeek,以及被指与阿里/OpenAI相关的编码器),其中 Upstage 还因代码里残留版权标记引发舆论,随后通过直播日志证明训练“从零开始”,指控方道歉。
华尔街日报
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
日本全新手绘平台 TEGAKI 上线,强力禁用 AI 生成内容!
近日,日本新兴手绘创作平台 TEGAKI(手描き,意为手绘)正式上线,吸引了众多艺术创作者的关注。这一平台的独特之处在于,它明确禁止任何 AI 生成或辅助创作的内容。TEGAKI 的推出迅速引起了热烈反响,首日注册用户超过5000人,远超预期的50人,导致网站一度崩溃,不得不进入维护状态,重新开放时间尚未确定。
TEGAKI 由独立工程师兼艺术家 Tochi 开发,旨在为热爱手绘和传统艺术创作的用户提供一个安全的交流平台。为了确保内容的纯粹性,TEGAKI 采用了一套严格的认证系统,要求创作者提交延时视频和工作文件,以证明他们的作品确实是手绘完成的。此外,TEGAKI 在防止 AI 学习方面也采取了多重措施,包括禁止主流 AI 爬虫访问,并通过元标签限制 AI 的学习能力,避免可疑的批量访问行为。
Tochi 强调,TEGAKI 并不是要否定 AI 技术本身,而是希望为传统创作提供一个保护空间。他表示,科技本身只是工具,如何使用取决于每个人的选择。TEGAKI 的设计理念旨在让创作者可以在一个无 AI 干扰的环境中自由表达自己的艺术创作。
via AI新闻资讯 (author: AI Base)
近日,日本新兴手绘创作平台 TEGAKI(手描き,意为手绘)正式上线,吸引了众多艺术创作者的关注。这一平台的独特之处在于,它明确禁止任何 AI 生成或辅助创作的内容。TEGAKI 的推出迅速引起了热烈反响,首日注册用户超过5000人,远超预期的50人,导致网站一度崩溃,不得不进入维护状态,重新开放时间尚未确定。
TEGAKI 由独立工程师兼艺术家 Tochi 开发,旨在为热爱手绘和传统艺术创作的用户提供一个安全的交流平台。为了确保内容的纯粹性,TEGAKI 采用了一套严格的认证系统,要求创作者提交延时视频和工作文件,以证明他们的作品确实是手绘完成的。此外,TEGAKI 在防止 AI 学习方面也采取了多重措施,包括禁止主流 AI 爬虫访问,并通过元标签限制 AI 的学习能力,避免可疑的批量访问行为。
Tochi 强调,TEGAKI 并不是要否定 AI 技术本身,而是希望为传统创作提供一个保护空间。他表示,科技本身只是工具,如何使用取决于每个人的选择。TEGAKI 的设计理念旨在让创作者可以在一个无 AI 干扰的环境中自由表达自己的艺术创作。
划重点:
🎨 TEGAKI 是日本全新上线的手绘创作平台,明确禁止 AI 生成内容。
🚀 上线首日注册用户超过5000人,造成网站崩溃,进入维护状态。
🛡️ 创作者需提交工作证明以确保内容纯粹,同时采用多重防护措施阻止 AI 学习。
via AI新闻资讯 (author: AI Base)
苹果 Siri 大升级:全新功能即将上线,情感支持与旅行助手齐飞
近日,有消息称,苹果正在对其语音助手 Siri 进行重大升级,预计在今年春季正式推出。这次升级将采用谷歌的 Gemini 技术,旨在让 Siri 变得更加智能和个性化。根据最新的报道,用户将可以享受到一系列新的功能,包括情感支持、旅行行程预订和故事讲述等,让人对未来的 Siri 充满期待。
具体来说,改版后的 Siri 将能够以更自然的对话形式回答各种实际问题和通用知识。想要了解母亲的航班动态或是寻找合适的午餐预订,Siri 将会通过邮件和信息应用中的相关数据,及时为用户提供准确的答案。此外,Siri 还能够讲述故事和提供情感支持,为用户的日常生活带来更多温暖和陪伴。
更有趣的是,新版 Siri 还将帮助用户完成更多任务,比如在备忘录应用中创建包含特定信息的文档,如烹饪食谱等。这意味着,Siri 不仅是一个简单的助手,更会成为用户生活中的得力帮手。苹果计划在今年 6 月的全球开发者大会(WWDC)上公布 Siri 的更多新功能,包括记忆用户的过往对话,并基于用户的日历等信息主动提供建议。
苹果的这次升级,旨在让 Siri 更好地理解用户的个人情境,具备屏幕感知能力,并支持更深层次的应用操作权限。未来,Siri 将不仅仅是一个语音助手,而是用户生活中的一个智能伙伴。
虽然苹果仍在测试新版 Siri,并未在该产品上标识谷歌或 Gemini 的相关信息,但可以肯定的是,苹果会对 Gemini 模型进行微调,以确保 Siri 的响应风格符合其一贯的用户体验标准。期待在 iOS 26.4 系统的更新中,Siri 能够给我们带来耳目一新的体验。
via AI新闻资讯 (author: AI Base)
近日,有消息称,苹果正在对其语音助手 Siri 进行重大升级,预计在今年春季正式推出。这次升级将采用谷歌的 Gemini 技术,旨在让 Siri 变得更加智能和个性化。根据最新的报道,用户将可以享受到一系列新的功能,包括情感支持、旅行行程预订和故事讲述等,让人对未来的 Siri 充满期待。
具体来说,改版后的 Siri 将能够以更自然的对话形式回答各种实际问题和通用知识。想要了解母亲的航班动态或是寻找合适的午餐预订,Siri 将会通过邮件和信息应用中的相关数据,及时为用户提供准确的答案。此外,Siri 还能够讲述故事和提供情感支持,为用户的日常生活带来更多温暖和陪伴。
更有趣的是,新版 Siri 还将帮助用户完成更多任务,比如在备忘录应用中创建包含特定信息的文档,如烹饪食谱等。这意味着,Siri 不仅是一个简单的助手,更会成为用户生活中的得力帮手。苹果计划在今年 6 月的全球开发者大会(WWDC)上公布 Siri 的更多新功能,包括记忆用户的过往对话,并基于用户的日历等信息主动提供建议。
苹果的这次升级,旨在让 Siri 更好地理解用户的个人情境,具备屏幕感知能力,并支持更深层次的应用操作权限。未来,Siri 将不仅仅是一个语音助手,而是用户生活中的一个智能伙伴。
虽然苹果仍在测试新版 Siri,并未在该产品上标识谷歌或 Gemini 的相关信息,但可以肯定的是,苹果会对 Gemini 模型进行微调,以确保 Siri 的响应风格符合其一贯的用户体验标准。期待在 iOS 26.4 系统的更新中,Siri 能够给我们带来耳目一新的体验。
via AI新闻资讯 (author: AI Base)
据可靠消息,公司正在开发一款代号为 “Sweetpea” 的全新AI音频设备,计划于 2026 年 9 月正式发布,并设下惊人的首年出货目标—— 4000 万至 5000 万台,意图一举打入全球主流消费市场。
这款设备采用极具辨识度的椭圆形金属外壳与双胶囊式后挂结构,兼顾美学与佩戴稳定性。其内部搭载一颗先进的 2 纳米制程AI芯片,并集成包括肌电信号(EMG)传感窗口在内的多模态交互组件,暗示其或将支持通过微表情、面部肌肉活动甚至无声指令进行人机交互,远超传统语音助手的能力边界。
尤为引人注目的是,前苹果首席设计官Jony Ive深度参与了Sweetpea的工业设计。这标志着OpenAI不仅追求技术突破,更将用户体验与产品质感置于核心位置,试图打造一款兼具科技感与奢侈品属性的AI入口级硬件。
在制造端,富士康已确认成为Sweetpea的独家生产商。据悉,OpenAI最初倾向选择立讯精密,但出于供应链多元化与产能保障的战略考量,最终转向富士康。双方合作或将长期深化——消息人士透露,富士康有望在 2028 年前承接多达五款OpenAI硬件设备的制造订单。
若Sweetpea如期发布并实现千万级出货,OpenAI将完成从纯软件公司向“AI+硬件”生态巨头的关键跃迁。这款设备或将成为其超级智能体(AGI)战略的物理载体,让用户通过自然、无缝的方式接入OpenAI的AI服务网络。当大模型走出云端、嵌入日常穿戴,通用人工智能的普及或许比想象中来得更快。
via AI新闻资讯 (author: AI Base)
韩国力推“主权AI”遭遇尴尬:本土大模型被曝深度引用中国代码
韩国在追求人工智能自主化的道路上正面临一场意想不到的舆论风波。据《华尔街日报》消息,韩国政府为摆脱对中美科技巨头的依赖,正倾力支持本土“主权AI”的发展。然而,近期多项调查发现,被寄予厚望的本土大模型在核心代码层面与中国及美国的开源模型存在高度相似性,引发了业界对“国产大模型”纯度的激烈讨论。
在这场由政府发起的 AI 开发竞赛中,五家入围决赛的企业中有三家被指出使用了外国开源代码。其中,初创公司 Upstage 受到公开质疑,其模型模块被指与中国智谱 AI 的开源模型高度雷同,代码中甚至保留了原作者的版权标记。随后,韩国科技巨头 Naver 和 SK 电讯也相继卷入风波,两家公司的模型分别被指在视觉编码器和推理代码上,与阿里巴巴及 DeepSeek 的产品存在相似之处。
面对质疑,相关公司解释称,完全从零开始编写每一行代码在当前的技术环境下并不现实。Naver 等公司强调,虽然使用了部分外部标准化工具,但决定模型学习与训练的核心引擎仍属于自主研发。尽管争议不断,韩国政府方面表现得相对宽容。韩国科学部长表示,这种激烈的技术辩论反而预示着韩国 AI 产业的活跃与前景。目前,官方计划继续按原定方案评选优胜模型,旨在2027年前打造出性能达到全球领先水平的本土 AI 工具。
划重点:
● 🇰🇷 自主化受阻: 韩国为确保技术主权发起 AI 竞赛,力求在2027年前开发出能与 OpenAI 等巨头竞争的本土模型,但深陷外部代码依赖争议。
● 💻 引用中国代码: 包括 Upstage、Naver 和 SK 电讯在内的多家决赛入围公司,被曝在其模型中引用了智谱 AI、阿里巴巴或 DeepSeek 的开源元素。
● 🛡️ 技术路线争论: 专家认为放弃开源红利并非明智之举,而反对者则担心过度依赖外国工具会带来安全风险并削弱“主权 AI”的初衷。
via AI新闻资讯 (author: AI Base)
韩国在追求人工智能自主化的道路上正面临一场意想不到的舆论风波。据《华尔街日报》消息,韩国政府为摆脱对中美科技巨头的依赖,正倾力支持本土“主权AI”的发展。然而,近期多项调查发现,被寄予厚望的本土大模型在核心代码层面与中国及美国的开源模型存在高度相似性,引发了业界对“国产大模型”纯度的激烈讨论。
在这场由政府发起的 AI 开发竞赛中,五家入围决赛的企业中有三家被指出使用了外国开源代码。其中,初创公司 Upstage 受到公开质疑,其模型模块被指与中国智谱 AI 的开源模型高度雷同,代码中甚至保留了原作者的版权标记。随后,韩国科技巨头 Naver 和 SK 电讯也相继卷入风波,两家公司的模型分别被指在视觉编码器和推理代码上,与阿里巴巴及 DeepSeek 的产品存在相似之处。
面对质疑,相关公司解释称,完全从零开始编写每一行代码在当前的技术环境下并不现实。Naver 等公司强调,虽然使用了部分外部标准化工具,但决定模型学习与训练的核心引擎仍属于自主研发。尽管争议不断,韩国政府方面表现得相对宽容。韩国科学部长表示,这种激烈的技术辩论反而预示着韩国 AI 产业的活跃与前景。目前,官方计划继续按原定方案评选优胜模型,旨在2027年前打造出性能达到全球领先水平的本土 AI 工具。
划重点:
● 🇰🇷 自主化受阻: 韩国为确保技术主权发起 AI 竞赛,力求在2027年前开发出能与 OpenAI 等巨头竞争的本土模型,但深陷外部代码依赖争议。
● 💻 引用中国代码: 包括 Upstage、Naver 和 SK 电讯在内的多家决赛入围公司,被曝在其模型中引用了智谱 AI、阿里巴巴或 DeepSeek 的开源元素。
● 🛡️ 技术路线争论: 专家认为放弃开源红利并非明智之举,而反对者则担心过度依赖外国工具会带来安全风险并削弱“主权 AI”的初衷。
via AI新闻资讯 (author: AI Base)
1月13日,完全禁止AI生成内容的插画网站TEGAKI(手描き,意为手绘)正式上线。这一类Pixiv的创意平台因其"AI禁入"特色引发日本创作者热捧,上线首日注册用户超5000人,远超预期的50人,直接导致网站崩溃。截至发稿,TEGAKI已进入维护状态,重新开放时间未定。
TEGAKI由独立工程师兼艺术家Tochi开发,定位为人类创作艺术的"安全港湾",无论传统艺术还是数字艺术,完全禁止AI生成或辅助创作的图像。为确保内容纯粹性,平台配备了严格的认证系统,创作者需提交延时视频和工作文件证明作品确系手绘。
在防AI学习方面,TEGAKI采取了多重防护措施:禁止GPTBot、CCBot和Google-Extended等主流AI爬虫访问,在所有页面设置元标签阻止AI学习,阻止可疑批量访问,并通过禁用右键和拖动功能防止图像下载。
值得注意的是,Tochi强调TEGAKI并非"否定AI技术本身"。网站在开发、维护和运营辅助过程中也使用了AI代码。"科技只是工具,我认为如何使用它取决于每个人自己,"Tochi表示,开发TEGAKI的初衷是为喜欢手绘和传统创作方法的人们创建交流平台,提供安全环境。
这一事件折射出AI生成内容对传统创作领域的冲击,以及艺术创作者对保护原创作品和创作空间的强烈诉求。TEGAKI的火爆也显示出,在AI艺术泛滥的当下,纯人类创作内容仍具有独特价值和市场需求。
via AI新闻资讯 (author: AI Base)
韩国“主权AI”遭遇信任危机:国产大模型被曝使用中、美开源代码,技术自主之路何其艰难?
据《华尔街日报》 1 月 14 日报道,韩国政府斥巨资推动的“本土大模型竞赛”陷入争议漩涡:五家决赛入围企业中,至少三家被指在其模型中使用了来自中国和美国公司的开源代码,包括智谱AI、阿里巴巴、OpenAI及DeepSeek等,引发关于“国产AI是否真正自主”的激烈辩论。
这场始于 2024 年 6 月的国家级项目,旨在三年内打造性能达到国际领先模型95%水平的纯韩国技术大模型,以减少对中美科技巨头的依赖,保障国家经济与安全利益。获胜者将获得政府提供的优质数据、人才资金及关键AI芯片使用权。然而,理想丰满,现实骨感——当技术全球化与开源协作成为行业常态,“从零造轮子”的自主路线显得愈发不切实际。
争议焦点集中于入围企业Upstage。竞争对手Sionic AI CEO高锡贤公开指控其模型部分模块与中国智谱AI的开源代码高度相似,甚至残留版权标记,质疑其“套壳中国模型却申领 taxpayer 资金”。尽管Upstage紧急召开直播发布会,展示完整训练日志证明核心模型为自研,并解释仅在推理框架(非训练核心)中使用了全球广泛采用的智谱开源组件,高锡贤随后道歉,但风波已起。
随后,Naver与SK电讯亦被卷入。Naver被指其视觉与音频编码器与阿里通义千问及OpenAI产品存在相似性;SK电讯则被发现推理代码与DeepSeek开源库雷同。两家公司均强调:模型的核心训练引擎完全自研,外部组件仅用于标准化的输入/输出处理,属于行业通用实践。
对此,学界观点两极。哈佛大学教授魏裕炎指出:“拒绝开源软件等于放弃技术红利,完全自研每一行代码既不现实也无必要。”首尔国立大学AI研究所所长李在武也证实,受质疑模型的核心参数训练过程确为从零开始,未直接复制外国模型权重。
然而,反对者担忧:即便仅使用外围代码,也可能引入潜在后门或依赖风险,削弱“主权AI”的战略意义。目前,韩国科学部尚未就竞赛规则中“是否允许使用外国开源代码”作出明确界定,但部长裴庆勋表示欢迎技术辩论,称“这正是韩国AI未来的光明所在”。
在全球加速构建“AI主权”的浪潮下,韩国困境折射出一个普遍难题:在高度互联的AI生态中,真正的“技术独立”边界究竟在哪里? 是代码逐行自研,还是核心算法与数据主权可控?这场风波或许没有简单答案,但它无疑为各国敲响警钟——AI自主化,远不止一场模型竞赛,而是一场涵盖技术伦理、产业政策与全球协作的系统性工程。
via AI新闻资讯 (author: AI Base)
据《华尔街日报》 1 月 14 日报道,韩国政府斥巨资推动的“本土大模型竞赛”陷入争议漩涡:五家决赛入围企业中,至少三家被指在其模型中使用了来自中国和美国公司的开源代码,包括智谱AI、阿里巴巴、OpenAI及DeepSeek等,引发关于“国产AI是否真正自主”的激烈辩论。
这场始于 2024 年 6 月的国家级项目,旨在三年内打造性能达到国际领先模型95%水平的纯韩国技术大模型,以减少对中美科技巨头的依赖,保障国家经济与安全利益。获胜者将获得政府提供的优质数据、人才资金及关键AI芯片使用权。然而,理想丰满,现实骨感——当技术全球化与开源协作成为行业常态,“从零造轮子”的自主路线显得愈发不切实际。
争议焦点集中于入围企业Upstage。竞争对手Sionic AI CEO高锡贤公开指控其模型部分模块与中国智谱AI的开源代码高度相似,甚至残留版权标记,质疑其“套壳中国模型却申领 taxpayer 资金”。尽管Upstage紧急召开直播发布会,展示完整训练日志证明核心模型为自研,并解释仅在推理框架(非训练核心)中使用了全球广泛采用的智谱开源组件,高锡贤随后道歉,但风波已起。
随后,Naver与SK电讯亦被卷入。Naver被指其视觉与音频编码器与阿里通义千问及OpenAI产品存在相似性;SK电讯则被发现推理代码与DeepSeek开源库雷同。两家公司均强调:模型的核心训练引擎完全自研,外部组件仅用于标准化的输入/输出处理,属于行业通用实践。
对此,学界观点两极。哈佛大学教授魏裕炎指出:“拒绝开源软件等于放弃技术红利,完全自研每一行代码既不现实也无必要。”首尔国立大学AI研究所所长李在武也证实,受质疑模型的核心参数训练过程确为从零开始,未直接复制外国模型权重。
然而,反对者担忧:即便仅使用外围代码,也可能引入潜在后门或依赖风险,削弱“主权AI”的战略意义。目前,韩国科学部尚未就竞赛规则中“是否允许使用外国开源代码”作出明确界定,但部长裴庆勋表示欢迎技术辩论,称“这正是韩国AI未来的光明所在”。
在全球加速构建“AI主权”的浪潮下,韩国困境折射出一个普遍难题:在高度互联的AI生态中,真正的“技术独立”边界究竟在哪里? 是代码逐行自研,还是核心算法与数据主权可控?这场风波或许没有简单答案,但它无疑为各国敲响警钟——AI自主化,远不止一场模型竞赛,而是一场涵盖技术伦理、产业政策与全球协作的系统性工程。
via AI新闻资讯 (author: AI Base)