发现全球最佳 AI 工具

从零教你部署与精通,掌握实战变现工作流

本地部署 DeepSeek 的详细步骤教程封面图,展示 Ollama 命令行、模型下载、Open WebUI 和 API 接入流程。

本地部署 DeepSeek 的详细步骤

本文是一篇面向新手和内容站读者的 DeepSeek 本地部署完整教程,覆盖 Ollama 安装、DeepSeek-R1 模型选择、Windows/macOS/Linux 运行命令、Open WebUI 图形界面、API 调用、Modelfile 自定义、插件接入和常见报错排查。

封面图建议用于文章特色图,比例 16:9。

爆款标题本地部署 DeepSeek 完整教程:从安装 Ollama 到跑通 API,新手也能一次成功
适合栏目保姆级教程 / 安装部署教程 / AI资源库 / 本地大模型
核心关键词DeepSeek 本地部署、Ollama DeepSeek、DeepSeek-R1、Open WebUI、本地大模型
推荐读者想在电脑、服务器或内网环境中运行 DeepSeek 的个人创作者、开发者、企业运维和AI工具站读者。
教程结论个人电脑优先 Ollama + deepseek-r1:7b/8b;需要图形界面加 Open WebUI;服务器高并发再考虑 vLLM。

一、为什么要本地部署 DeepSeek?

DeepSeek 在本地部署的核心价值,不只是“离线能用”,更重要的是把模型运行、数据输入、接口调用和知识库实验放到自己可控的环境里。对于内容创作者,它可以用来写脚本、改标题、整理资料;对于开发者,它可以作为本地代码问答和调试助手;对于企业内网场景,它可以先做低成本 PoC,再决定是否接入云端模型或私有化服务。

不过,新手最容易踩坑的地方也在这里:看到“DeepSeek”三个字就以为所有模型都能在普通电脑上轻松运行。事实上,完整 671B 级别模型需要工作站或服务器级资源;普通电脑更适合运行蒸馏版或量化版,比如 1.5B、7B、8B、14B、32B 等。本文采用“先跑通、再升级”的路线,优先保证读者照着做能成功。

一句话建议:如果你是新手,先安装 Ollama,运行 deepseek-r1 或 deepseek-r1:8b,确认能正常对话后,再加 Open WebUI 和 API 接入。

二、先搞清楚:DeepSeek 哪些模型适合本地跑?

DeepSeek 官网当前提供 Web、App 和 API 入口,并提示 DeepSeek-V4 Preview 已面向 Web、App 与 API;但对普通本地电脑来说,最成熟、最易部署的路线仍是 DeepSeek-R1 系列及其蒸馏/量化版本。DeepSeek-R1 官方资料说明,R1、R1-Zero 以及基于 Llama、Qwen 的六个蒸馏模型已开源,适合研究和本地部署实验。

模型规模Ollama 示例适合设备推荐用途新手建议
1.5Bollama run deepseek-r1:1.5b低配笔记本体验流程、简单问答能跑但能力有限
7B/8Bollama run deepseek-r1 或 :7b/:8b16GB 内存电脑写作、代码问答、轻量推理首选
14Bollama run deepseek-r1:14b32GB 内存或较强 Mac复杂写作、代码解释体验更稳
32Bollama run deepseek-r1:32b高配台式机/独显复杂推理、长文分析有条件再上
70B+ollama run deepseek-r1:70b / :671b工作站/服务器高质量推理与服务化普通电脑不建议

图:DeepSeek 本地模型选择速查,建议从 7B/8B 开始。

三、安装前准备:先检查电脑配置

检查项建议
操作系统Windows 10/11、macOS 14+、主流 Linux 发行版均可走 Ollama 路线。
内存建议至少 16GB;想跑 14B/32B 模型,32GB 或更高体验更好。
显存没有独显也能跑小模型,但速度会慢;NVIDIA 独显更适合 Docker、vLLM、CUDA 加速。
磁盘模型文件通常从几 GB 到几十 GB;建议至少预留 30GB,长期使用预留 100GB+。
网络首次下载模型会很大,网络不稳时建议只拉小模型或使用可续传/镜像方案。
安全不要把敏感资料随意喂给未知来源模型或第三方客户端;企业内网要做权限隔离和日志管理。

图:从硬件检查到 API 接入的完整部署路径。

四、路线 A:用 Ollama 本地部署 DeepSeek(最推荐)

Ollama 是当前新手部署本地大模型最省事的工具之一。它把模型下载、运行、更新、删除、本地 API 都封装成简单命令,适合 Windows、macOS 和 Linux。

1. Windows 安装 Ollama

打开 PowerShell,执行官方安装命令;或者进入 Ollama 官网下载 Windows 安装包。

irm https://ollama.com/install.ps1 | iex
ollama –version

安装完成后,Ollama 通常会作为后台服务运行。确认命令能输出版本号后,就可以下载 DeepSeek 模型。

2. macOS 安装 Ollama

macOS 可以直接下载 App,也可以用终端安装。Ollama 官方页面标注 macOS 版本需要 macOS 14 Sonoma 或更高版本。

curl -fsSL https://ollama.com/install.sh | sh
ollama –version

3. Linux 安装 Ollama

Linux 服务器可以直接使用官方安装脚本。安装后建议检查服务状态。

curl -fsSL https://ollama.com/install.sh | sh
ollama –version
systemctl status ollama

4. 下载并运行 DeepSeek

新手直接运行默认 deepseek-r1 即可。Ollama 当前 deepseek-r1 页面显示默认命令为 ollama run deepseek-r1,并提供 1.5B、7B、8B、14B、32B、70B、671B 等标签。

# 推荐新手:默认 8B / R1-0528-Qwen3-8B 路线
ollama run deepseek-r1

# 低配电脑
ollama run deepseek-r1:1.5b

# 16GB 内存电脑可尝试
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b

# 高配电脑或服务器
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b

5. 常用管理命令

# 查看已下载模型
ollama list

# 更新模型
ollama pull deepseek-r1

# 删除模型
ollama rm deepseek-r1:7b

# 查看本地运行状态
ollama ps

# 停止指定模型
ollama stop deepseek-r1

五、路线 B:加上 Open WebUI,做成网页聊天界面

只用命令行对话不适合普通用户。Open WebUI 可以把本地 Ollama 模型变成类似 ChatGPT 的网页界面,支持多用户、会话、模型切换等能力。

# 先确认 Docker 已安装,再拉取 Open WebUI 镜像
docker pull ghcr.io/open-webui/open-webui:main

# 如果 Ollama 和 Open WebUI 在同一台电脑上
docker run -d -p 3000:8080 \
  –add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  –name open-webui \
  –restart always \
  ghcr.io/open-webui/open-webui:main

# 浏览器打开
http://localhost:3000

注意:Docker Desktop 首次启动可能较慢。Open WebUI 如果连接不到 Ollama,优先检查 Ollama 是否在本机启动,以及容器是否能访问 host.docker.internal:11434。

六、路线 C:调用本地 API,把 DeepSeek 接进工作流

Ollama 默认提供本地 HTTP API,常见地址是 http://localhost:11434。你可以把它接入 Python 脚本、网页应用、VS Code 插件、RAG 知识库或自动化工作流。

1. cURL 测试聊天接口

curl http://localhost:11434/api/chat -d “{
  \”model\”: \”deepseek-r1\”,
  \”messages\”: [
    {\”role\”: \”user\”, \”content\”: \”请用三句话解释本地大模型的优势\”}
  ],
  \”stream\”: false
}”

2. Python 调用示例

import requests

url = “http://localhost:11434/api/chat”
payload = {
    “model”: “deepseek-r1”,
    “messages”: [
        {“role”: “user”, “content”: “帮我写一个公众号文章标题清单”}
    ],
    “stream”: False
}

resp = requests.post(url, json=payload, timeout=120)
resp.raise_for_status()
print(resp.json()[“message”][“content”])

3. Node.js 调用示例

const res = await fetch(‘http://localhost:11434/api/chat’, {
  method: ‘POST’,
  headers: { ‘Content-Type’: ‘application/json’ },
  body: JSON.stringify({
    model: ‘deepseek-r1’,
    messages: [{ role: ‘user’, content: ‘生成一个短视频脚本大纲’ }],
    stream: false
  })
});

const data = await res.json();
console.log(data.message.content);

七、路线 D:用 LM Studio / Chatbox 等客户端部署

如果读者不喜欢命令行,也可以用 LM Studio、Chatbox、AnythingLLM 等客户端。它们通常提供图形化搜索模型、下载模型、启动本地服务的能力。新手可以用 Ollama 跑通主线,再按需要选择客户端。

工具适合场景建议
LM Studio适合图形化下载 GGUF 模型、本地聊天、OpenAI 兼容服务。适合非技术用户和本地模型体验。
Chatbox / Cherry Studio适合接入 Ollama、本地模型和云端 API。适合日常聊天和多模型切换。
AnythingLLM适合把本地模型接入资料库、文档问答。适合个人知识库和企业内网 PoC。
Open WebUI适合网页端、多用户、Docker 部署。适合团队共享和服务器部署。

八、路线 E:服务器部署 DeepSeek,什么时候用 vLLM?

如果你只是个人电脑自用,Ollama 足够。如果你要做多人访问、高并发 API、生产环境网关或 GPU 集群,才需要考虑 vLLM、SGLang、Triton Inference Server 等推理框架。vLLM 官方 DeepSeek 指南明确将 DeepSeek-R1 和 DeepSeek-V3 作为同架构模型说明,并给出了 FP8/FP4 的服务化部署路线。

# 示例:vLLM 环境准备,生产环境请按显卡、CUDA/ROCm、驱动版本调整
uv venv
source .venv/bin/activate
uv pip install -U vllm –torch-backend auto

# 服务化部署示意,真实参数需按模型规模和 GPU 数量调整
vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B \
  –tensor-parallel-size 2 \
  –max-model-len 32768

不建议新手直接上 vLLM:vLLM 更像“服务器推理框架”,不是个人电脑上的一键聊天软件。普通用户先用 Ollama,能省掉大部分依赖、驱动和环境问题。

九、进阶:用 Modelfile 自定义 DeepSeek

Ollama 的 Modelfile 可以理解为“模型配置文件”:指定基础模型、温度、上下文窗口、系统提示词等。适合把 DeepSeek 固化成写作助手、代码审查助手、SEO 助手。

# 新建文件:Modelfile
FROM deepseek-r1:8b
PARAMETER temperature 0.6
PARAMETER num_ctx 4096
SYSTEM “你是一个严谨的中文技术教程作者,回答要结构清晰、步骤可执行。”

# 创建自定义模型
ollama create deepseek-tutorial -f Modelfile

# 运行自定义模型
ollama run deepseek-tutorial

十、把 DeepSeek 接入 VS Code、IDEA 和知识库

本地 DeepSeek 真正好用,往往不是单独聊天,而是接入常用工作流。以下是常见组合:

VS Code / Continue:把本地 Ollama 地址配置为 provider,适合代码解释、重构、单元测试生成。

VS Code / Cline 类插件:可将本地模型作为对话模型之一,但复杂自动化任务建议使用更强模型。

IDEA / JetBrains 插件:部分插件支持 OpenAI Compatible 或 Ollama 接入,适合 Java 项目问答。

RAG 知识库:使用 embedding 模型做向量化,再用 DeepSeek 生成回答,适合企业文档问答。

WordPress 自动发文:用本地模型做标题、摘要、草稿生成,正式发布前必须人工审核。

十一、常见报错与解决办法

图:部署 DeepSeek 常见问题的排查方向。

问题可能原因解决办法
ollama 命令不存在安装未完成,或终端未重新打开。重新安装,关闭并重新打开 PowerShell/Terminal,再执行 ollama –version。
模型下载很慢网络不稳定或模型过大。先下载 1.5B/7B/8B;失败后重复 ollama pull;确认磁盘空间。
运行后电脑很卡模型过大,占满内存或显存。换小模型,关闭浏览器和大型软件,降低上下文长度。
Open WebUI 连不上 Ollama容器无法访问宿主机 11434 端口。使用 –add-host=host.docker.internal:host-gateway,确认 Ollama 服务已启动。
API 无响应模型仍在加载,或端口被拦截。先用 ollama run 测试;检查 localhost:11434;放行防火墙。
回答中英混杂模型输出风格不稳定,提示词不够明确。系统提示词加入“全程使用简体中文,结构化回答”。
生成速度很慢CPU 推理、模型过大或上下文过长。优先 7B/8B;减少输入长度;启用 GPU 环境。

十二、实用提示词模板

技术教程助手

你是一个面向新手的技术教程作者。请把下面的问题拆成可执行步骤,每一步包含命令、验证方法和常见错误提醒。

代码审查助手

你是资深软件工程师。请检查下面代码的 Bug、性能问题、安全风险,并给出可直接复制的修复方案。

SEO 文章助手

你是中文 SEO 编辑。请根据主题生成标题、摘要、目录、FAQ、相关阅读和特色图 ALT 文本。

资料总结助手

请把以下资料整理成结构化笔记,包含核心结论、关键数据、风险点和后续行动清单。

FAQ:本地部署 DeepSeek 常见问题

1. 本地部署 DeepSeek 必须要显卡吗?

不必须。小模型可以用 CPU 跑,但速度会慢。想获得更顺畅体验,建议使用 Apple Silicon Mac、NVIDIA 独显台式机或带 GPU 的服务器。

2. 普通 16GB 内存电脑应该选哪个模型?

优先 deepseek-r1:7b 或默认 deepseek-r1/8b。不要一开始就尝试 32B、70B 或 671B。

3. DeepSeek-V4 能直接本地部署吗?

截至本文口径,DeepSeek 官网强调 V4 Preview 可用于 Web、App 和 API;普通本地部署教程更推荐 R1/R1-0528、蒸馏版或 Ollama 已支持的标签。

4. Ollama 下载的模型文件在哪里?

不同系统路径不同。一般不建议新手手动移动模型目录;如果确实要迁移,先停止 Ollama 服务并备份。

5. 为什么 DeepSeek 回复很慢?

原因通常是模型太大、内存不足、显存未启用、上下文太长或首次加载。先换小模型验证。

6. Open WebUI 一定要装吗?

不一定。命令行和 API 已经能使用 DeepSeek;Open WebUI 适合想要网页聊天界面、多会话管理和团队使用的人。

7. 本地部署就一定安全吗?

本地部署能降低数据外发风险,但仍要注意客户端来源、日志、权限、插件和文档内容管理。

8. 可以把 DeepSeek 接入 WordPress 自动发文吗?

可以通过本地 API 生成标题、摘要、草稿,但正式发布前必须人工审核,避免事实错误、重复内容和版权风险。

9. 企业内网部署建议怎么做?

先用 Ollama/Open WebUI 做 PoC;正式环境再考虑 vLLM、权限系统、审计日志、模型网关和私有知识库。

10. 模型越大就一定越好吗?

不一定。模型越大越吃资源。写作、摘要、简单代码问答用 7B/8B 往往够用;复杂推理再考虑更大模型。

相关阅读

Ollama本地部署大模型完整教程

Windows电脑如何安装常见AI工具

Mac电脑安装AI工具完整教程

VSCode里安装AI编程插件全流程

IDEA里安装AI编程插件全流程

从剪辑到配音:主流AI音视频工具全整理

• 本地部署 DeepSeek 完整教程:不用云端,也能在电脑上跑大模型

• DeepSeek 本地部署保姆级教程:Ollama、Open WebUI、API 一次讲清

• 新手也能跑通 DeepSeek:从模型下载到网页聊天完整流程

• 电脑本地运行 DeepSeek 怎么做?这篇教程把坑都整理好了

• DeepSeek 私有化部署入门:个人电脑、服务器、内网环境都适用

官方参考来源

DeepSeek 官网:https://www.deepseek.com/en/

DeepSeek-R1 GitHub:https://github.com/deepseek-ai/DeepSeek-R1

DeepSeek-R1-0528 Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

Ollama Windows 下载:https://ollama.com/download/windows

Ollama macOS 下载:https://ollama.com/download/mac

Ollama deepseek-r1 模型库:https://ollama.com/library/deepseek-r1

Ollama Modelfile 文档:https://docs.ollama.com/modelfile

Open WebUI Quick Start:https://docs.openwebui.com/getting-started/quick-start/

vLLM DeepSeek-V3/R1 使用指南:https://docs.vllm.ai/projects/recipes/en/latest/DeepSeek/DeepSeek-V3.html

Facebook
LinkedIn
Reddit
X
Email
WhatsApp
Telegram
Pinterest
Mix

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注