https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持Deepseek、OpenAI(o3/GPTs/Sora/实时语音)、Claude、Gemini、Midjourney、文件上传
卖DeepSeek安装包一月赚十万?我们免费教你本地部署DeepSeek-R1

图源:微博 @扬子晚报打开淘宝和拼多多,搜索 DeepSeek,我们能看到电子货架上摆满了琳琅满目的本可免费获得的资源,其中既有安装包,也有提示词包与教程,甚至就连清华大学刚刚发布的《DeepSeek 从入门到精通》也被许多卖家明码标价出售 —— 但实际上你只需要随便找个搜索引擎搜索一下,你就能找到大量可免费下载该教程的链接。价钱如何呢?根据我们的粗略观察,一般打包出售“安装包 + 教程 + 提示词”的价格通常在 10-30 元之间,商家一般还会提供一定的客服服务。其中不少都已经卖出了上百份,更有少数几个已经达成了上千人付款的成就。离谱的是,一个定价 100 元的软件和教程包也有 22 人付款。真是不得不让人感叹,信息差的钱是真好赚。转自网络今天这篇文章我们将教你如何在本地部署 DeepSeek,并且完全不用花一分钱。但首先,我们先简单了解下为什么要本地部署。为什么要本地部署 DeepSeek-R1?DeepSeek-R1,虽然可能已不是当前最强大的推理模型,但绝对依然还是当前最热门的推理模型。也因此,如果使用官网或其它托管商的服务,我们常常会遭遇如下窘境:而本地部署模型可以有效杜绝这种情况。简单来说,本地部署就是在你自己的本地设备上安装 AI 模型,而不依赖云端 API 或在线服务。常见的本地部署方式有如下几种:轻量级本地推理:在个人电脑或移动端运行(如 Llama.cpp、Whisper、GGUF 格式模型)。服务器 / 工作站部署:使用高性能 GPU 或 TPU(如英伟达 RTX 4090、A100)运行大模型。私有云 / 内网服务器:在企业内部服务器上部署(如使用 TensorRT、ONNX Runtime、vLLM)。边缘设备:在嵌入式设备或 IoT 设备上运行 AI(如 Jetson Nano、树莓派)。而本地部署也存在自己的应用场景,比如:企业内部 AI(如私有聊天机器人、文档分析);科研计算(如生物医药、物理仿真);离线 AI 功能(如语音识别、OCR、图像处理);安全审计 & 监控(如法律、金融合规分析)。本文将主要关注轻量级本地推理,这也是适用于我们大多数个人用户的部署方式。本地部署的好处除了从根本上解决“服务器繁忙”问题,本地部署还有其它诸多好处,包括:数据隐私与安全性:在本地部署 AI 模型时,就无需将自己的关键数据上传到云端,从而可以有效防止数据泄露,这对金融、医疗、法律等行业而言尤为关键。另外,本地部署也能有效符合企业或地区的数据合规要求(如中国的《数据安全法》、欧盟的 GDPR 等)。低延迟 & 高实时性能:由于本地部署时所有计算都发生在本地,无需网络请求,因此推理速度完全取决于用户自己的设备计算性能。但也因此,只要本地设备性能足够,用户就能享受到非常好的实时性能,也因此本地部署非常适合实时性非常关键的应用(如语音识别、自动驾驶、工业检测)。更低的长期成本:本地部署自然就无需 API 订阅费用,可实现一次部署长期使用。同时,如果用户对模型性能要求不高,还能通过部署轻量化模型(如 INT 8 或 4-bit 量化)来控制硬件成本。可以离线使用:无需网络也能用上 AI 模型,适用于边缘计算、离线办公、远程环境等。并且,由于断网也能运行 AI 应用,因此可以保证用户的关键业务不中断。可定制 & 可控性强:可以微调、优化模型,更适配业务需求,举个例子,DeepSeek-R1 就被微调和蒸馏成了许多不同的版本,包括无限制版本 deepseek-r1-abliterated 等等。另外,本地部署不受第三方政策变更影响,可控性强,可避免 API 调价或访问限制。本地部署的缺点本地部署好处多多,但我们也不能忽视其缺点,首当其冲的便是大模型的算力需求。硬件成本高:个人用户的本地设备通常难以运行高参数量的模型,而参数量较低的模型的性能通常又更差,因此这方面有一个需要考虑的权衡。如果用户想要运行高性能模型,那就必须在硬件上投入更多成本。难以处理大规模任务:当用户的任务需要大规模处理数据时,往往需要服务器规模的硬件才能有效完成。有一定的部署门槛:不同于使用云服务 —— 只需打开网页端或配置 API 即可使用,本地部署存在一定的技术门槛。如果用户还有进一步的本地微调需求,部署难度还会更大。不过幸运的是,这个门槛正越来越低。需要一定的维护成本:用户需要投入心力和时间解决因为模型和工具升级带来的环境配置问题。究竟是进行本地部署还是使用在线模型,还需要用户根据自己的实际情况定夺。下面简单总结了适合与不适合本地部署的场景:适合本地部署:高隐私、低延迟、长期使用(如企业 AI 助手、法律分析)。不适合本地部署:短期试验、高算力需求、依赖大模型(如 70B+ 参数级别)。如何本地部署 DeepSeek-R1?本地部署 DeepSeek-R1 的方法其实有很多,这里我们简单介绍两种:一是基于 Ollama 实现本地部署,二是使用 LM Studio 的零代码部署方法。基于 Ollama 部署 DeepSeek-R1下面我们将基于 Ollama 介绍如何在你自己的设备上部署你自己的 DeepSeek-R1。Ollama 是目前最常使用的本地部署和运行语言模型的框架,其非常轻量,而且具有很好的可扩展性。从名字也能看出来,Ollama 是 Meta 发布 Llama 系列模型之后诞生的。但这个项目是社区驱动的,与 Meta 以及 Llama 系列模型的开发没有直接关系。Ollama 项目诞生之后发展非常迅速,不管是支持的模型量还是支持其的各种生态系统都在迅速发展。Ollama 支持的部分模型和生态使用 Ollama 的第一步非常简单,下载并安装 Ollama,访问以下地址,下载适合你操作系统的版本即可。下载地址:https://ollama.com/download有了 Ollama,还需要为你的设备配置 AI 模型。这里以 DeepSeek-R1 为例进行演示。首先进入 Ollama 官网查看支持的模型及相应的版本:https://ollama.com/search 这里我们可以看到 DeepSeek-R1 现有 1.5B 到 671B 共 7 个不同规模的共 29 个不同版本,其中包括一些基于开源模型 Llama 和 Qwen 进行微调、蒸馏或量化处理后得到的模型。具体该选择哪个版本,我们先得了解自己的硬件配置情况。dev.to 开发者社区 Avnish 写了一篇文章,简单总结了 DeepSeek-R1 不同规模版本的硬件需求,可作参考:图源:https://dev.to/askyt/deepseek-r1-architecture-training-local-deployment-and-hardware-requirements-3mf8这里我们以 8B 版本为例进行演示:打开你设备上的终端工具,运行ollama run deepseek-r1:8b接下来就是等待模型下载完成。(Ollama 现在也支持直接从 Hugging Face 拉取模型,命令是 ollama run hf.co/{用户名}/{库}:{量化版本},比如 ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0。)模型下载完成后,你就可以直接在这个终端中与下载好的 8B 版 DeepSeek-R1 聊天了。但是,对普通用户来说,这种对话方式非常不直观,也不方便。因此我们还需要配置一个好用的前端。而前端的选择可就多了。我们即可以使用能在浏览器中提供类似 ChatGPT 体验的 Open WebUI,也可以选择 Chatbox 等前端工具,你也可以在这里寻找你想要的前端:https://github.com/ollama/ollama1. 如果你想使用 Open WebUI,只需在你的终端以此运行以下两行代码即可:安装 Open WebUI:pip install open-webui运行 Open WebUI:open-webui serve接下来,只需访问 http://localhost:8080,就能在你的浏览器中获得类似 ChatGPT 的体验。从 Open WebUI 的模型列表中可以看到,本机上的 Ollama 已经配置了多个模型,包括 DeepSeek-R1 7B 和 8B 版本以及 Llama 3.1 8B、Llama 3.2 3B、Phi 4、Qwen 2.5 Coder 等其它一些模型。选择其中的 DeepSeek-R1 8B 试试看效果...

PC版:https://www.cnbeta.com.tw/articles/soft/1478144.htm
手机版:https://m.cnbeta.com.tw/view/1478144.htm

via cnBeta.COM中文业界资讯站 - Telegram Channel
前谷歌CEO施密特:西方需重视开源AI以应对中国竞争

谷歌前首席执行官埃里克·施密特警告,西方国家需要加强开源人工智能模型的开发,否则可能在全球AI竞争中落后于中国。

中国初创公司DeepSeek上月推出高性能开源大语言模型R1,开发效率超过美国竞争对手。施密特指出,目前美国顶级语言模型多为封闭系统,除Meta的Llama外,包括谷歌Gemini、Anthropic Claude和OpenAI GPT-4都不对外开放。他认为若不重视开源技术,西方大学可能因负担不起封闭模型而影响科研发展。

Financial Times

📮投稿 ☘️频道 🌸聊天 🗞️𝕏

via 科技圈🎗在花频道📮 - Telegram Channel
百度计划今年下半年发布新一代AI模型文心 5.0,提升多模态能力

该模型将在多模态能力上有显著提升,能够处理文本、视频、图像和音频,并进行跨类别转换。

百度此举是应对与OpenAI等美国公司竞争,同时应对来自中国初创企业如DeepSeek的挑战。

百度CEO李彦宏在迪拜世界政府峰会上表示,基础模型的推理成本在过去12个月内降低了90%以上,这将大幅提升生产力。

CNBC

📮投稿 ☘️频道 🌸聊天 🗞️𝕏

via 科技圈🎗在花频道📮 - Telegram Channel
🇨🇳 中国AI发展迅猛:DeepSeek崭露头角,成本大幅降低

中国AI领域迎来多项进展:海信、马蜂窝、东风日产N7等企业正集成DeepSeek的AI模型,分别用于提升语音对话、旅游服务和人机交互。百度预计今年发布文心大模型5.0。字节跳动UltraMem架构将推理成本降低83%。李彦宏称大模型成本年度降幅超90%。阿里巴巴或与苹果合作,为中国版iPhone开发AI功能,可能采用通义千问。小红书开源语音识别模型FireRedASR在中文识别方面表现出色。DeepSeek创始人梁文峰估值或达1500亿美元。玉树科技筹备开设北京分公司。OpenAI CEO表示愿与中国在AI领域合作。

(财经快讯)

via 茶馆 - Telegram Channel
🎬《哪吒2》票房大爆,助北京光线传媒市值飙升55亿美元

动画电影《哪吒2》票房突破92亿元人民币(约12.7亿美元),成为中国影史票房冠军,并跻身全球票房前25名。影片的成功使北京光线传媒市值增长20%,增加近400亿元人民币(约55亿美元)。该片在春节档上映,一扫去年中国电影票房收入下降23%的颓势,为电影行业注入活力。该片在IMDb上评分高达8.3,融合了中国神话和现代叙事,即将登陆北美、日本和韩国。

(财经快讯)

via 茶馆 - Telegram Channel
英特尔大涨 因万斯称最先进人工智能硬件要确保在美国制造

英特尔、GlobalFoundries Inc.大涨,因美国副总统万斯此前表示特朗普政府将确保最先进的人工智能硬件在美国制造。

万斯在法国总统马克龙主办的人工智能峰会上表示,“为了保持美国优势,特朗普政府将确保最强大的人工智能系统在美国建造,使用美国设计和制造的芯片。”

英特尔股价2月11日纽约交易盘中一度上涨11%,GlobalFoundries上涨7.3%。这两家公司是美国最大的半导体代工商。他们还获得了美国政府旨在振兴国内芯片生产的数十亿美元补贴。

🗒 标签: #Intel #英特尔
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot

via Yummy 😋 - Telegram Channel
中国百度今年将发布下一代人工智能模型

据知情人士透露,随着 DeepSeek 等新玩家正在颠覆这一领域,中国百度计划在今年下半年发布下一代人工智能模型。文心5.0被称为“基础模型”,将“在多模态能力方面有重大增强”,但没有具体说明其功能。“多模态”人工智能可以处理文本、视频、图像和音频等不同形式的数据,并进行转换和结合,比如将文本转化为视频,或反向操作。百度李彦宏本周在迪拜的世界政府峰会上说:“我们正处于一个令人激动的时代…12 个月内,基础模型的推理成本预计将下降90%以上。如果成本能够大幅降低,意味着生产力将呈同等比例提升。这也正是创新的核心所在。”

—— CNBC

via 风向旗参考快讯 - Telegram Channel
欧盟隐私监管机构或进一步监管深度求索

欧洲隐私监管机构周二表示,深度求索公司未来可能会面临来自成员国监管机构的更多行动,这凸显了欧盟对这家经济型中国人工智能初创公司日益流行的担忧。欧盟成员国隐私监管机构在周二的月度会议上讨论了深度求索公司,此前意大利因缺乏有关其使用个人数据的信息而屏蔽了该聊天机器人,法国、荷兰、比利时、卢森堡和其他国家的执法部门也对深度求索的数据收集行为提出了质疑。欧洲数据保护委员会说:“多家DPA已开始针对深度求索采取行动,未来可能会采取进一步行动。此外,欧洲数据保护委员会成员强调需要协调DPA在紧急敏感问题上的行动,为此将成立一个快速反应小组。”

—— 路透社

via 风向旗参考快讯 - Telegram Channel
谷歌宣布2025年 I/O 开发者大会举办日期

谷歌今天宣布,下一届 I/O 开发者大会将于5月20日和21日举行。根据常见问题解答,此次活动将“向所有人在线开放”,并将包括“现场直播主题演讲和会议”。与往年一样,还将在加州山景城的海岸线露天剧场举行现场活动。谷歌此前推出了一款有趣的解谜游戏以帮助揭晓此次活动的日期。今年的展会将将与5月19日至5月22日举行的微软 Build 大会同时举行。上一届谷歌 I/O 大会于2024年5月14日开幕。此次活动发布了大量公告,包括新的 Gemini 人工智能功能和模型、 Project Astra AI 助手、Veo 生成式 AI 视频模型,以及谷歌搜索以 AI 为重点的重大改革。

—— TheVerge

via 风向旗参考快讯 - Telegram Channel
🤖 施密特警告:西方需拥抱开源AI,对抗中国

前谷歌CEO埃里克·施密特警告称,西方必须优先发展开源AI,以避免落后于中国,尤其是在中国初创公司DeepSeek发布R1开源大语言模型之后。施密特指出,美国顶级LLM,如谷歌的Gemini和OpenAI的GPT-4,大多是闭源的,Meta的Llama是少数例外。他警告说,不投资开源技术可能会阻碍西方大学的科学发现。施密特还宣布通过Schmidt Sciences投资1000万美元用于新的AI安全科学项目,涉及27个专注于AI安全研究的项目。他提倡与中国在AI安全方面进行合作,将其比作火箭测试的信息共享。

(FT)

via 茶馆 - Telegram Channel
Altman:即便有了DeepSeek,星际之门5000亿不够,未来是5万亿计算集群

即便现在有了打破“算力神话”的DeepSeek和5000亿美元的“星际之门”项目,对AI基础设施进行持续投资依然有效且重要,希望在未来实现5万亿计算集群。

并且,Altman的野心不止于美国,他还希望在欧洲也成立一个“星际之门”项目。

🗒 标签: #OpenAI #SamAltman
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot

via Yummy 😋 - Telegram Channel
Back to Top
oaibest.com 2023-2025
[email protected]