零基础一键部署 DeepSeek 全模型,小白也能轻松搭建

零基础一键部署 DeepSeek 全模型,小白也能轻松搭建
Weekend零基础一键部署 DeepSeek 全模型,小白也能轻松搭建
最近 DeepSeek 非常火,不管是代码生成、写作辅助还是数据分析,它都表现不俗。虽然你可以直接用官网或 App 体验,但如果你想离线使用、更快响应、无限制对话,最好的方式就是:本地部署!
零基础一键部署 DeepSeek 全模型
打造你的本地 AI 助手,离线可用,无需科学上网!
最近 DeepSeek 非常火,不管是代码生成、写作辅助还是数据分析,它都表现不俗。虽然你可以直接用官网或 App 体验,但如果你想离线使用、更快响应、无限制对话,最好的方式就是:本地部署!
今天就教你,一键部署 DeepSeek 所有模型,小白用户也能 10 分钟搞定!
第一步:安装 Ollama —— 本地 AI 模型管理器
DeepSeek 模型需要一个运行平台,推荐使用 Ollama。它免费开源,而且真正实现了「一键运行」。
安装步骤:
打开 Ollama 官网,点击下载,双击安装包。
安装完成后它会在后台运行,无界面,任务栏中可看到图标。
打开终端(CMD),输入:
1
ollama
如果出现提示说明安装成功。
第二步:下载 & 导入 DeepSeek 模型
✅ 离线一键导入(推荐,无需科学上网):
下载 DeepSeek 模型全集压缩包(可能几个 GB,耐心等待)。
解压后,右键管理员运行“一键导入脚本”。
按提示:
- 输入模型保存路径(建议磁盘空间充足)
- 选择要导入的模型(如:7b 14b 32b,可多选)
稍等片刻,模型就自动导入成功了!
✅ 在线下载命令(需良好网络):
下载 7B 模型:
1
ollama pull deepseek-r1:7b
下载 14B 模型:
1
ollama pull deepseek-r1:14b
下载「和谐版模型」:
1
ollama pull huihui_ai/deepseek-r1-abliterated:14b
模型硬件推荐清单(按需选择)
| 模型参数 | 推荐配置 | 适用场景 |
|---|---|---|
| 1.5B | 4核CPU / 8GB内存 / 无需显卡 | 入门使用、轻量问答 |
| 7B | 8核CPU / 16GB内存 / 8GB显卡 | 中等任务、对话系统 |
| 14B | 12核CPU / 32GB内存 / 16GB显卡 | 长文生成、专业任务 |
| 32B | 16核CPU / 64GB内存 / 24GB显卡 | 企业部署、大模型对话 |
| 70B+ | 高端服务器集群 | AGI研究、科研用途 |
第三步:本地使用 DeepSeek 模型
✅ 控制台交互(最简洁)
打开终端,输入:
1 | ollama run deepseek-r1:7b |
之后你就可以像和 ChatGPT 聊天一样,输入问题、得到回答。
✅ 图形界面方式(推荐小白)
使用免费开源前端工具:AnythingLLM
下载 AnythingLLM
安装并运行,跳过初始化模型部分。
进入“设置 > 聊天设置”,如下填写:
- 提供者选择:Ollama
- 模型名称:deepseek-r1:7b(或你导入的模型名)
点击保存,即可在图形界面使用!
✅ 浏览器网页端方式
配合浏览器插件 Page Assist 使用:
安装 Page Assist 插件(可搜“鼠标博客版”或在插件市场找)
打开插件主页,进入“设置 > 一般设置”
- 语言设为中文
- 模型设置为 DeepSeek
回到主页聊天界面,开始提问!
🔐关于“和谐版模型”
官方 DeepSeek 模型对敏感内容有限制。如果你希望模型“开放回答”,可以使用网友提供的“和谐版模型”。使用方法与官方模型一致,只是下载命令不同(详见上文命令部分)。
✅ 总结
通过 Ollama + DeepSeek 的组合,哪怕是普通电脑用户,也能:
- 一键运行 AI 模型
- 离线对话无需联网
- 不限次数、不卡画质
- 自由扩展,安全私密
现在就试试看,做自己的 AI 掌控者!






