https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持Deepseek、OpenAI(o3/GPTs/Sora/实时语音)、Claude、Gemini、Midjourney、文件上传
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持Deepseek、OpenAI(o3/GPTs/Sora/实时语音)、Claude、Gemini、Midjourney、文件上传
Adobe发布AI视频生成工具Firefly公开版本,与OpenAI的Sora展开竞争
Adobe发布可生成视频片段的人工智能工具Firefly Video Model的公开版本,将与OpenAI的Sora和初创公司Runway展开竞争。然而,Adobe采取与竞争对手不同的模式,旨在生成适合电影和电视工作室使用其旗舰视频编辑软件Premiere Pro的片段。
Adobe强调的许多功能都围绕着将现有镜头输入视频模型,并生成片段,以修复或扩展在真实制作场景中拍摄但效果不佳的镜头。
价格方面,Adobe表示,用户每月支付9.99美元即可生成20个片段,支付29.99美元即可生成70个片段。相比之下,OpenAI的低分辨率计划每月只需20美元就能生成50个视频,而200美元计划则能处理更长、更高分辨率的视频。Adobe还在为工作室和其他大批量视频用户制定“高级”定价计划,并将在今年晚些时候公布定价细节。
via 匿名
🗒 标签: #Adobe #AI
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel
Adobe发布可生成视频片段的人工智能工具Firefly Video Model的公开版本,将与OpenAI的Sora和初创公司Runway展开竞争。然而,Adobe采取与竞争对手不同的模式,旨在生成适合电影和电视工作室使用其旗舰视频编辑软件Premiere Pro的片段。
Adobe强调的许多功能都围绕着将现有镜头输入视频模型,并生成片段,以修复或扩展在真实制作场景中拍摄但效果不佳的镜头。
价格方面,Adobe表示,用户每月支付9.99美元即可生成20个片段,支付29.99美元即可生成70个片段。相比之下,OpenAI的低分辨率计划每月只需20美元就能生成50个视频,而200美元计划则能处理更长、更高分辨率的视频。Adobe还在为工作室和其他大批量视频用户制定“高级”定价计划,并将在今年晚些时候公布定价细节。
via 匿名
🗒 标签: #Adobe #AI
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel
#Update #ChatGPT
ChatGPT Deep Research 初期将提供 Plus 订阅用户每月 10次、免费用户每月 2 次的配额,未来可能逐步提高。
Pro 订阅用户初期为每月 100 次。
via AI Copilot - Telegram Channel
ChatGPT Deep Research 初期将提供 Plus 订阅用户每月 10次、免费用户每月 2 次的配额,未来可能逐步提高。
Pro 订阅用户初期为每月 100 次。
via AI Copilot - Telegram Channel
皮查伊:实用量子计算机将在5到10年内问世
谷歌 CEO 桑达尔·皮查伊表示,“实用”的量子计算机还需要 5到10年的时间,他将这项突破性技术与大约十年前的人工智能发展阶段进行了比较。皮查伊周三在迪拜世界政府峰会上说:“量子时刻让我想起了 2010 年代的人工智能,当时我们正在开发Google Brain,并取得了早期进展。”皮查伊还提到了谷歌最近在量子芯片方面取得的一项突破。这项突破使研究人员能够在五分钟内计算出一个问题,而现有的超级计算机则需要“比我们宇宙存在的时间还要长”的时间才能解决。 量子计算的进展显然令人兴奋。他还表示:“深度求索做得非常出色,展示了 AI 的全球性。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
谷歌 CEO 桑达尔·皮查伊表示,“实用”的量子计算机还需要 5到10年的时间,他将这项突破性技术与大约十年前的人工智能发展阶段进行了比较。皮查伊周三在迪拜世界政府峰会上说:“量子时刻让我想起了 2010 年代的人工智能,当时我们正在开发Google Brain,并取得了早期进展。”皮查伊还提到了谷歌最近在量子芯片方面取得的一项突破。这项突破使研究人员能够在五分钟内计算出一个问题,而现有的超级计算机则需要“比我们宇宙存在的时间还要长”的时间才能解决。 量子计算的进展显然令人兴奋。他还表示:“深度求索做得非常出色,展示了 AI 的全球性。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
Adobe 推出 Firefly AI 订阅 每月9.99美元起
Adobe 推出 Firefly AI 订阅服务,允许用户访问 AI 图像、矢量和视频生成模型。还推出了重新设计的网站,可以在其中使用 Adobe 的 AI 模型。包括新的 Firefly AI 视频模型,该模型正在 Firefly 网站和 Premiere Pro Beta 应用中推出公开测试版。Firefly 标准套餐9.99美元/月,可无限制使用 Adobe 的 AI 图像和矢量生成功能以及新 AI 视频模型。提供的2000积分可以制作20个五秒 AI 视频。用户还可将 Firefly 套餐连接到 Creative Cloud 帐户,以在其他 Adobe 应用中获得无限的 AI 图像和矢量生成。Pro 套餐29.99美元/月,提供足够的积分来每月生成70个五秒的 AI 视频。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
Adobe 推出 Firefly AI 订阅服务,允许用户访问 AI 图像、矢量和视频生成模型。还推出了重新设计的网站,可以在其中使用 Adobe 的 AI 模型。包括新的 Firefly AI 视频模型,该模型正在 Firefly 网站和 Premiere Pro Beta 应用中推出公开测试版。Firefly 标准套餐9.99美元/月,可无限制使用 Adobe 的 AI 图像和矢量生成功能以及新 AI 视频模型。提供的2000积分可以制作20个五秒 AI 视频。用户还可将 Firefly 套餐连接到 Creative Cloud 帐户,以在其他 Adobe 应用中获得无限的 AI 图像和矢量生成。Pro 套餐29.99美元/月,提供足够的积分来每月生成70个五秒的 AI 视频。
—— Techcrunch
via 风向旗参考快讯 - Telegram Channel
OpenAI 论文:推理模型 o3 在编程竞赛中斩获金牌,性能匹敌人类精英
OpenAI 发布研究论文《Competitive Programming with Large Reasoning Models》,披露其推理模型在竞技编程中的突破性表现。模型 o3 在 IOI 2024 中以 395.64 分的成绩达到金牌标准,并在 CodeForces 竞赛中展现出与人类顶尖选手相当的实力。研究显示,通过强化学习(RL)训练及增加计算资源,模型在复杂编码任务中的性能显著提升。同时,中国团队研发的 DeepSeek-R1 与 Kimi k1.5 采用思维链学习(COT)方法,在数学解题与编程挑战中同样表现优异。论文指出,此类模型将在科学、编码等领域的 AI 应用中开启新可能。
论文原文
📮投稿 ☘️频道 🌸聊天 🗞️𝕏
via 科技圈🎗在花频道📮 - Telegram Channel
OpenAI 发布研究论文《Competitive Programming with Large Reasoning Models》,披露其推理模型在竞技编程中的突破性表现。模型 o3 在 IOI 2024 中以 395.64 分的成绩达到金牌标准,并在 CodeForces 竞赛中展现出与人类顶尖选手相当的实力。研究显示,通过强化学习(RL)训练及增加计算资源,模型在复杂编码任务中的性能显著提升。同时,中国团队研发的 DeepSeek-R1 与 Kimi k1.5 采用思维链学习(COT)方法,在数学解题与编程挑战中同样表现优异。论文指出,此类模型将在科学、编码等领域的 AI 应用中开启新可能。
论文原文
📮投稿 ☘️频道 🌸聊天 🗞️𝕏
via 科技圈🎗在花频道📮 - Telegram Channel
华为小艺助手网页端上线:适配手机 / PC,支持 DeepSeek R1 深度思考
华为小艺助手 App 已于本月官宣接入 DeepSeek,用户将鸿蒙原生版小艺助手升级至 11.2.10.340 版本后,可在智能体广场体验 DeepSeek-R1 智能体(支持联网搜索功能)。
华为小艺智能助手网页端也于近日完成上线,用户可通过链接访问。该版本小艺智能助手支持所有设备访问使用,但需要登录华为账号。目前网页版小艺智能助手已适配手机、PC 布局,提供 AI 问答、AI 写作、编程助手、AI 翻译等功能。另外,其还支持 DeepSeek R1 深度思考。
via 匿名
🗒 标签: #华为 #小艺助手
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel
华为小艺助手 App 已于本月官宣接入 DeepSeek,用户将鸿蒙原生版小艺助手升级至 11.2.10.340 版本后,可在智能体广场体验 DeepSeek-R1 智能体(支持联网搜索功能)。
华为小艺智能助手网页端也于近日完成上线,用户可通过链接访问。该版本小艺智能助手支持所有设备访问使用,但需要登录华为账号。目前网页版小艺智能助手已适配手机、PC 布局,提供 AI 问答、AI 写作、编程助手、AI 翻译等功能。另外,其还支持 DeepSeek R1 深度思考。
via 匿名
🗒 标签: #华为 #小艺助手
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel
丰田等多家日企内部禁用DeepSeek服务
12日获悉,日本丰田汽车、软银、三菱重工业等禁止在企业内部使用中国创新企业深度求索研发的生成式人工智能。围绕深度求索的服务,由于担心信息泄露给中国政府,越来越多的企业开始禁用。深度求索以低成本成功研发生成式AI,震惊全世界,另一方面被指安全性存疑。丰田表示:“从信息安全角度来看存在担忧,因此禁止使用。”三菱重工的方针也是不使用,据称即使提出内部申请目前也不会予以批准。软银限制从公司内部进行访问,并禁止在业务终端下载和使用。
—— 共同社
via 风向旗参考快讯 - Telegram Channel
12日获悉,日本丰田汽车、软银、三菱重工业等禁止在企业内部使用中国创新企业深度求索研发的生成式人工智能。围绕深度求索的服务,由于担心信息泄露给中国政府,越来越多的企业开始禁用。深度求索以低成本成功研发生成式AI,震惊全世界,另一方面被指安全性存疑。丰田表示:“从信息安全角度来看存在担忧,因此禁止使用。”三菱重工的方针也是不使用,据称即使提出内部申请目前也不会予以批准。软银限制从公司内部进行访问,并禁止在业务终端下载和使用。
—— 共同社
via 风向旗参考快讯 - Telegram Channel
Elevated error rates on Claude 3 Sonnet
Feb 12, 05:37 PST
Investigating - We are currently investigating this issue.
via Anthropic Status - Incident History
Feb 12, 05:37 PST
Investigating - We are currently investigating this issue.
via Anthropic Status - Incident History
AMD锐龙AI处理器轻松本地跑DeepSeek:最高支持70B参数
AMD锐龙AI处理器拥有目前行业最强的NPU,算力高达50 TOPS(每秒50万亿次计算),自然是体验DeepSeek的上佳选择。如果你有一台锐龙AI笔记本,现在就可以通过LM Studio,轻松在本地部署、体验DeepSeek R1精简版推理模型。具体操作方式如下:1、安装AMD Adrenalin 25.1.1或更新版显卡驱动。2、打开lmstudio.ai/ryzenai,并下载LM Studio 0.3.8或更新版本。3、安装启动LM Studio,可以直接跳过引导屏幕。4、点击“发现”(discover)标签页。5、选择适合自己的DeepSeek R1 Distill。具体如何选择见后。6、在软件页面右侧,勾选“Q4 K M”量化模式,然后点击“下载”。7、下载完成后,返回聊天选项页,从下拉菜单中选择DeepSeek R1 distill,并确保勾选“手动选择参数”(manually select parameters)选项。8、在“GPU卸载”(GPU offload)中,将滑块移到最大值。9、点击“模型加载”(model load)。10、好了,可以在本地体验DeepSeek R1推理模型了!不同参数规模的大模型,决定了其性能和体积,因此不同的硬件设备需要选择最适合自己的参数量。如果是顶级的锐龙AI MAX+ 395处理器,搭配64GB、128GB内存,最高可以支持DeepSeek-R1-Distill-Llama-70B,注意64GB内存的话需要将可变显存设置为高。搭配32GB内存,可变显存自定义为24GB,则能支持到DeepSeek-R1-Distill-Qwen-32B。如果是锐龙AI HX 370、AI 365处理器,搭配24GB、32GB内存,可以支持DeepSeek-R1-Distill-Qwen-14B。如果是锐龙7040/8040系列,需要搭配32GB内存,才能支持到DeepSeek-R1-Distill-Qwen-14B。另外,AMD推荐将所有Distill运行在Q4 K M量化模式。如果你使用的是台式机,AMD RX 7000系列显卡也都已支持本地部署DeepSeek R1。其中,RX 7900 XTX旗舰显卡最高支持DeepSeek-R1-Distill-Qwen-32B,RX 7900 XT、7900 GRE、7800 XT、7700 XT、7600 XT均可以支持到DeepSeek-R1-Distill-Qwen-14B,RX 7600以及新发布的RX 7650 GRE则适合到DeepSeek-R1-Distill-Llama-8B。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1478168.htm
手机版:https://m.cnbeta.com.tw/view/1478168.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
AMD锐龙AI处理器拥有目前行业最强的NPU,算力高达50 TOPS(每秒50万亿次计算),自然是体验DeepSeek的上佳选择。如果你有一台锐龙AI笔记本,现在就可以通过LM Studio,轻松在本地部署、体验DeepSeek R1精简版推理模型。具体操作方式如下:1、安装AMD Adrenalin 25.1.1或更新版显卡驱动。2、打开lmstudio.ai/ryzenai,并下载LM Studio 0.3.8或更新版本。3、安装启动LM Studio,可以直接跳过引导屏幕。4、点击“发现”(discover)标签页。5、选择适合自己的DeepSeek R1 Distill。具体如何选择见后。6、在软件页面右侧,勾选“Q4 K M”量化模式,然后点击“下载”。7、下载完成后,返回聊天选项页,从下拉菜单中选择DeepSeek R1 distill,并确保勾选“手动选择参数”(manually select parameters)选项。8、在“GPU卸载”(GPU offload)中,将滑块移到最大值。9、点击“模型加载”(model load)。10、好了,可以在本地体验DeepSeek R1推理模型了!不同参数规模的大模型,决定了其性能和体积,因此不同的硬件设备需要选择最适合自己的参数量。如果是顶级的锐龙AI MAX+ 395处理器,搭配64GB、128GB内存,最高可以支持DeepSeek-R1-Distill-Llama-70B,注意64GB内存的话需要将可变显存设置为高。搭配32GB内存,可变显存自定义为24GB,则能支持到DeepSeek-R1-Distill-Qwen-32B。如果是锐龙AI HX 370、AI 365处理器,搭配24GB、32GB内存,可以支持DeepSeek-R1-Distill-Qwen-14B。如果是锐龙7040/8040系列,需要搭配32GB内存,才能支持到DeepSeek-R1-Distill-Qwen-14B。另外,AMD推荐将所有Distill运行在Q4 K M量化模式。如果你使用的是台式机,AMD RX 7000系列显卡也都已支持本地部署DeepSeek R1。其中,RX 7900 XTX旗舰显卡最高支持DeepSeek-R1-Distill-Qwen-32B,RX 7900 XT、7900 GRE、7800 XT、7700 XT、7600 XT均可以支持到DeepSeek-R1-Distill-Qwen-14B,RX 7600以及新发布的RX 7650 GRE则适合到DeepSeek-R1-Distill-Llama-8B。 ...
PC版:https://www.cnbeta.com.tw/articles/soft/1478168.htm
手机版:https://m.cnbeta.com.tw/view/1478168.htm
via cnBeta.COM中文业界资讯站 - Telegram Channel
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
via AI绘画|AI视频 | AI音乐 - Telegram Channel
ChatGPT可能并不像曾经认为的那么耗电
非营利人工智能研究机构 Epoch AI 最新研究表明,ChatGPT 聊天机器人的能耗水平可能远远低于此前人们的普遍认知。一个常被引用的统计数据是,ChatGPT 需要大约 3 瓦时的电量来回答一个问题,或者是谷歌搜索的十倍。Epoch 认为这个估值过高。通过分析 OpenAI 最新的默认模型 GPT-4o,Epoch AI 发现,ChatGPT 的平均查询能耗约为 0.3 瓦时,低于许多家用电器的能耗水平。Epoch 数据分析师表示,之所以开展这项分析,是因为此前的研究存在过时的问题。例如得出 3 瓦时估计值报告的作者假设 OpenAI 使用较老、效率较低的芯片来运行其模型。
—— Techcrunch、研究报告
via 风向旗参考快讯 - Telegram Channel
非营利人工智能研究机构 Epoch AI 最新研究表明,ChatGPT 聊天机器人的能耗水平可能远远低于此前人们的普遍认知。一个常被引用的统计数据是,ChatGPT 需要大约 3 瓦时的电量来回答一个问题,或者是谷歌搜索的十倍。Epoch 认为这个估值过高。通过分析 OpenAI 最新的默认模型 GPT-4o,Epoch AI 发现,ChatGPT 的平均查询能耗约为 0.3 瓦时,低于许多家用电器的能耗水平。Epoch 数据分析师表示,之所以开展这项分析,是因为此前的研究存在过时的问题。例如得出 3 瓦时估计值报告的作者假设 OpenAI 使用较老、效率较低的芯片来运行其模型。
—— Techcrunch、研究报告
via 风向旗参考快讯 - Telegram Channel
Elevated Subscription Loading Errors
Feb 12, 02:36 PST
Update - We are continuing to investigate this issue.
Feb 12, 02:35 PST
Investigating - We're experiencing an elevated level of ChatGPT subscription loading errors and are currently looking into the issue.
via OpenAI Status - Incident History
Feb 12, 02:36 PST
Update - We are continuing to investigate this issue.
Feb 12, 02:35 PST
Investigating - We're experiencing an elevated level of ChatGPT subscription loading errors and are currently looking into the issue.
via OpenAI Status - Incident History