
封面图建议用于文章特色图,比例 16:9。
| 爆款标题 | 本地部署 DeepSeek 完整教程:从安装 Ollama 到跑通 API,新手也能一次成功 |
| 适合栏目 | 保姆级教程 / 安装部署教程 / AI资源库 / 本地大模型 |
| 核心关键词 | DeepSeek 本地部署、Ollama DeepSeek、DeepSeek-R1、Open WebUI、本地大模型 |
| 推荐读者 | 想在电脑、服务器或内网环境中运行 DeepSeek 的个人创作者、开发者、企业运维和AI工具站读者。 |
| 教程结论 | 个人电脑优先 Ollama + deepseek-r1:7b/8b;需要图形界面加 Open WebUI;服务器高并发再考虑 vLLM。 |
一、为什么要本地部署 DeepSeek?
DeepSeek 在本地部署的核心价值,不只是“离线能用”,更重要的是把模型运行、数据输入、接口调用和知识库实验放到自己可控的环境里。对于内容创作者,它可以用来写脚本、改标题、整理资料;对于开发者,它可以作为本地代码问答和调试助手;对于企业内网场景,它可以先做低成本 PoC,再决定是否接入云端模型或私有化服务。
不过,新手最容易踩坑的地方也在这里:看到“DeepSeek”三个字就以为所有模型都能在普通电脑上轻松运行。事实上,完整 671B 级别模型需要工作站或服务器级资源;普通电脑更适合运行蒸馏版或量化版,比如 1.5B、7B、8B、14B、32B 等。本文采用“先跑通、再升级”的路线,优先保证读者照着做能成功。
| 一句话建议:如果你是新手,先安装 Ollama,运行 deepseek-r1 或 deepseek-r1:8b,确认能正常对话后,再加 Open WebUI 和 API 接入。 |
二、先搞清楚:DeepSeek 哪些模型适合本地跑?
DeepSeek 官网当前提供 Web、App 和 API 入口,并提示 DeepSeek-V4 Preview 已面向 Web、App 与 API;但对普通本地电脑来说,最成熟、最易部署的路线仍是 DeepSeek-R1 系列及其蒸馏/量化版本。DeepSeek-R1 官方资料说明,R1、R1-Zero 以及基于 Llama、Qwen 的六个蒸馏模型已开源,适合研究和本地部署实验。
| 模型规模 | Ollama 示例 | 适合设备 | 推荐用途 | 新手建议 |
| 1.5B | ollama run deepseek-r1:1.5b | 低配笔记本 | 体验流程、简单问答 | 能跑但能力有限 |
| 7B/8B | ollama run deepseek-r1 或 :7b/:8b | 16GB 内存电脑 | 写作、代码问答、轻量推理 | 首选 |
| 14B | ollama run deepseek-r1:14b | 32GB 内存或较强 Mac | 复杂写作、代码解释 | 体验更稳 |
| 32B | ollama run deepseek-r1:32b | 高配台式机/独显 | 复杂推理、长文分析 | 有条件再上 |
| 70B+ | ollama run deepseek-r1:70b / :671b | 工作站/服务器 | 高质量推理与服务化 | 普通电脑不建议 |

图:DeepSeek 本地模型选择速查,建议从 7B/8B 开始。
三、安装前准备:先检查电脑配置
| 检查项 | 建议 |
| 操作系统 | Windows 10/11、macOS 14+、主流 Linux 发行版均可走 Ollama 路线。 |
| 内存 | 建议至少 16GB;想跑 14B/32B 模型,32GB 或更高体验更好。 |
| 显存 | 没有独显也能跑小模型,但速度会慢;NVIDIA 独显更适合 Docker、vLLM、CUDA 加速。 |
| 磁盘 | 模型文件通常从几 GB 到几十 GB;建议至少预留 30GB,长期使用预留 100GB+。 |
| 网络 | 首次下载模型会很大,网络不稳时建议只拉小模型或使用可续传/镜像方案。 |
| 安全 | 不要把敏感资料随意喂给未知来源模型或第三方客户端;企业内网要做权限隔离和日志管理。 |

图:从硬件检查到 API 接入的完整部署路径。
四、路线 A:用 Ollama 本地部署 DeepSeek(最推荐)
Ollama 是当前新手部署本地大模型最省事的工具之一。它把模型下载、运行、更新、删除、本地 API 都封装成简单命令,适合 Windows、macOS 和 Linux。
1. Windows 安装 Ollama
打开 PowerShell,执行官方安装命令;或者进入 Ollama 官网下载 Windows 安装包。
irm https://ollama.com/install.ps1 | iex
ollama –version
安装完成后,Ollama 通常会作为后台服务运行。确认命令能输出版本号后,就可以下载 DeepSeek 模型。
2. macOS 安装 Ollama
macOS 可以直接下载 App,也可以用终端安装。Ollama 官方页面标注 macOS 版本需要 macOS 14 Sonoma 或更高版本。
curl -fsSL https://ollama.com/install.sh | sh
ollama –version
3. Linux 安装 Ollama
Linux 服务器可以直接使用官方安装脚本。安装后建议检查服务状态。
curl -fsSL https://ollama.com/install.sh | sh
ollama –version
systemctl status ollama
4. 下载并运行 DeepSeek
新手直接运行默认 deepseek-r1 即可。Ollama 当前 deepseek-r1 页面显示默认命令为 ollama run deepseek-r1,并提供 1.5B、7B、8B、14B、32B、70B、671B 等标签。
# 推荐新手:默认 8B / R1-0528-Qwen3-8B 路线
ollama run deepseek-r1
# 低配电脑
ollama run deepseek-r1:1.5b
# 16GB 内存电脑可尝试
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
# 高配电脑或服务器
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
5. 常用管理命令
# 查看已下载模型
ollama list
# 更新模型
ollama pull deepseek-r1
# 删除模型
ollama rm deepseek-r1:7b
# 查看本地运行状态
ollama ps
# 停止指定模型
ollama stop deepseek-r1
五、路线 B:加上 Open WebUI,做成网页聊天界面
只用命令行对话不适合普通用户。Open WebUI 可以把本地 Ollama 模型变成类似 ChatGPT 的网页界面,支持多用户、会话、模型切换等能力。
# 先确认 Docker 已安装,再拉取 Open WebUI 镜像
docker pull ghcr.io/open-webui/open-webui:main
# 如果 Ollama 和 Open WebUI 在同一台电脑上
docker run -d -p 3000:8080 \
–add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
–name open-webui \
–restart always \
ghcr.io/open-webui/open-webui:main
# 浏览器打开
http://localhost:3000
| 注意:Docker Desktop 首次启动可能较慢。Open WebUI 如果连接不到 Ollama,优先检查 Ollama 是否在本机启动,以及容器是否能访问 host.docker.internal:11434。 |
六、路线 C:调用本地 API,把 DeepSeek 接进工作流
Ollama 默认提供本地 HTTP API,常见地址是 http://localhost:11434。你可以把它接入 Python 脚本、网页应用、VS Code 插件、RAG 知识库或自动化工作流。
1. cURL 测试聊天接口
curl http://localhost:11434/api/chat -d “{
\”model\”: \”deepseek-r1\”,
\”messages\”: [
{\”role\”: \”user\”, \”content\”: \”请用三句话解释本地大模型的优势\”}
],
\”stream\”: false
}”
2. Python 调用示例
import requests
url = “http://localhost:11434/api/chat”
payload = {
“model”: “deepseek-r1”,
“messages”: [
{“role”: “user”, “content”: “帮我写一个公众号文章标题清单”}
],
“stream”: False
}
resp = requests.post(url, json=payload, timeout=120)
resp.raise_for_status()
print(resp.json()[“message”][“content”])
3. Node.js 调用示例
const res = await fetch(‘http://localhost:11434/api/chat’, {
method: ‘POST’,
headers: { ‘Content-Type’: ‘application/json’ },
body: JSON.stringify({
model: ‘deepseek-r1’,
messages: [{ role: ‘user’, content: ‘生成一个短视频脚本大纲’ }],
stream: false
})
});
const data = await res.json();
console.log(data.message.content);
七、路线 D:用 LM Studio / Chatbox 等客户端部署
如果读者不喜欢命令行,也可以用 LM Studio、Chatbox、AnythingLLM 等客户端。它们通常提供图形化搜索模型、下载模型、启动本地服务的能力。新手可以用 Ollama 跑通主线,再按需要选择客户端。
| 工具 | 适合场景 | 建议 |
| LM Studio | 适合图形化下载 GGUF 模型、本地聊天、OpenAI 兼容服务。 | 适合非技术用户和本地模型体验。 |
| Chatbox / Cherry Studio | 适合接入 Ollama、本地模型和云端 API。 | 适合日常聊天和多模型切换。 |
| AnythingLLM | 适合把本地模型接入资料库、文档问答。 | 适合个人知识库和企业内网 PoC。 |
| Open WebUI | 适合网页端、多用户、Docker 部署。 | 适合团队共享和服务器部署。 |
八、路线 E:服务器部署 DeepSeek,什么时候用 vLLM?
如果你只是个人电脑自用,Ollama 足够。如果你要做多人访问、高并发 API、生产环境网关或 GPU 集群,才需要考虑 vLLM、SGLang、Triton Inference Server 等推理框架。vLLM 官方 DeepSeek 指南明确将 DeepSeek-R1 和 DeepSeek-V3 作为同架构模型说明,并给出了 FP8/FP4 的服务化部署路线。
# 示例:vLLM 环境准备,生产环境请按显卡、CUDA/ROCm、驱动版本调整
uv venv
source .venv/bin/activate
uv pip install -U vllm –torch-backend auto
# 服务化部署示意,真实参数需按模型规模和 GPU 数量调整
vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B \
–tensor-parallel-size 2 \
–max-model-len 32768
| 不建议新手直接上 vLLM:vLLM 更像“服务器推理框架”,不是个人电脑上的一键聊天软件。普通用户先用 Ollama,能省掉大部分依赖、驱动和环境问题。 |
九、进阶:用 Modelfile 自定义 DeepSeek
Ollama 的 Modelfile 可以理解为“模型配置文件”:指定基础模型、温度、上下文窗口、系统提示词等。适合把 DeepSeek 固化成写作助手、代码审查助手、SEO 助手。
# 新建文件:Modelfile
FROM deepseek-r1:8b
PARAMETER temperature 0.6
PARAMETER num_ctx 4096
SYSTEM “你是一个严谨的中文技术教程作者,回答要结构清晰、步骤可执行。”
# 创建自定义模型
ollama create deepseek-tutorial -f Modelfile
# 运行自定义模型
ollama run deepseek-tutorial
十、把 DeepSeek 接入 VS Code、IDEA 和知识库
本地 DeepSeek 真正好用,往往不是单独聊天,而是接入常用工作流。以下是常见组合:
VS Code / Continue:把本地 Ollama 地址配置为 provider,适合代码解释、重构、单元测试生成。
VS Code / Cline 类插件:可将本地模型作为对话模型之一,但复杂自动化任务建议使用更强模型。
IDEA / JetBrains 插件:部分插件支持 OpenAI Compatible 或 Ollama 接入,适合 Java 项目问答。
RAG 知识库:使用 embedding 模型做向量化,再用 DeepSeek 生成回答,适合企业文档问答。
WordPress 自动发文:用本地模型做标题、摘要、草稿生成,正式发布前必须人工审核。
十一、常见报错与解决办法

图:部署 DeepSeek 常见问题的排查方向。
| 问题 | 可能原因 | 解决办法 |
| ollama 命令不存在 | 安装未完成,或终端未重新打开。 | 重新安装,关闭并重新打开 PowerShell/Terminal,再执行 ollama –version。 |
| 模型下载很慢 | 网络不稳定或模型过大。 | 先下载 1.5B/7B/8B;失败后重复 ollama pull;确认磁盘空间。 |
| 运行后电脑很卡 | 模型过大,占满内存或显存。 | 换小模型,关闭浏览器和大型软件,降低上下文长度。 |
| Open WebUI 连不上 Ollama | 容器无法访问宿主机 11434 端口。 | 使用 –add-host=host.docker.internal:host-gateway,确认 Ollama 服务已启动。 |
| API 无响应 | 模型仍在加载,或端口被拦截。 | 先用 ollama run 测试;检查 localhost:11434;放行防火墙。 |
| 回答中英混杂 | 模型输出风格不稳定,提示词不够明确。 | 系统提示词加入“全程使用简体中文,结构化回答”。 |
| 生成速度很慢 | CPU 推理、模型过大或上下文过长。 | 优先 7B/8B;减少输入长度;启用 GPU 环境。 |
十二、实用提示词模板
技术教程助手
你是一个面向新手的技术教程作者。请把下面的问题拆成可执行步骤,每一步包含命令、验证方法和常见错误提醒。
代码审查助手
你是资深软件工程师。请检查下面代码的 Bug、性能问题、安全风险,并给出可直接复制的修复方案。
SEO 文章助手
你是中文 SEO 编辑。请根据主题生成标题、摘要、目录、FAQ、相关阅读和特色图 ALT 文本。
资料总结助手
请把以下资料整理成结构化笔记,包含核心结论、关键数据、风险点和后续行动清单。
FAQ:本地部署 DeepSeek 常见问题
1. 本地部署 DeepSeek 必须要显卡吗?
不必须。小模型可以用 CPU 跑,但速度会慢。想获得更顺畅体验,建议使用 Apple Silicon Mac、NVIDIA 独显台式机或带 GPU 的服务器。
2. 普通 16GB 内存电脑应该选哪个模型?
优先 deepseek-r1:7b 或默认 deepseek-r1/8b。不要一开始就尝试 32B、70B 或 671B。
3. DeepSeek-V4 能直接本地部署吗?
截至本文口径,DeepSeek 官网强调 V4 Preview 可用于 Web、App 和 API;普通本地部署教程更推荐 R1/R1-0528、蒸馏版或 Ollama 已支持的标签。
4. Ollama 下载的模型文件在哪里?
不同系统路径不同。一般不建议新手手动移动模型目录;如果确实要迁移,先停止 Ollama 服务并备份。
5. 为什么 DeepSeek 回复很慢?
原因通常是模型太大、内存不足、显存未启用、上下文太长或首次加载。先换小模型验证。
6. Open WebUI 一定要装吗?
不一定。命令行和 API 已经能使用 DeepSeek;Open WebUI 适合想要网页聊天界面、多会话管理和团队使用的人。
7. 本地部署就一定安全吗?
本地部署能降低数据外发风险,但仍要注意客户端来源、日志、权限、插件和文档内容管理。
8. 可以把 DeepSeek 接入 WordPress 自动发文吗?
可以通过本地 API 生成标题、摘要、草稿,但正式发布前必须人工审核,避免事实错误、重复内容和版权风险。
9. 企业内网部署建议怎么做?
先用 Ollama/Open WebUI 做 PoC;正式环境再考虑 vLLM、权限系统、审计日志、模型网关和私有知识库。
10. 模型越大就一定越好吗?
不一定。模型越大越吃资源。写作、摘要、简单代码问答用 7B/8B 往往够用;复杂推理再考虑更大模型。
相关阅读
• 本地部署 DeepSeek 完整教程:不用云端,也能在电脑上跑大模型
• DeepSeek 本地部署保姆级教程:Ollama、Open WebUI、API 一次讲清
• 新手也能跑通 DeepSeek:从模型下载到网页聊天完整流程
• 电脑本地运行 DeepSeek 怎么做?这篇教程把坑都整理好了
• DeepSeek 私有化部署入门:个人电脑、服务器、内网环境都适用
官方参考来源
DeepSeek 官网:https://www.deepseek.com/en/
DeepSeek-R1 GitHub:https://github.com/deepseek-ai/DeepSeek-R1
DeepSeek-R1-0528 Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528
Ollama Windows 下载:https://ollama.com/download/windows
Ollama macOS 下载:https://ollama.com/download/mac
Ollama deepseek-r1 模型库:https://ollama.com/library/deepseek-r1
Ollama Modelfile 文档:https://docs.ollama.com/modelfile
Open WebUI Quick Start:https://docs.openwebui.com/getting-started/quick-start/
vLLM DeepSeek-V3/R1 使用指南:https://docs.vllm.ai/projects/recipes/en/latest/DeepSeek/DeepSeek-V3.html