- 软件名称:DeepSeek(离线版,本地部署)
- 软件语言:简体中文
- 软件大小:892M(基础部署文件,模型需额外下载)
- 系统要求:Windows 7 及以上版本,64 位操作系统
- 硬件要求:CPU 不低于 2GHz,内存 4G 及以上(模型对配置要求不同,详见下文)
DeepSeek 离线版是基于大语言模型的本地部署工具,支持完全离线运行,无需联网即可实现智能对话、文本生成等功能。依托优化的 Transformer 架构,具备精准的语义理解与高质量文本生成能力,适合对数据隐私有高要求的场景(如个人学习、内部办公)。
- 全离线运行:所有数据在本地处理,不依赖网络,保护隐私与敏感信息;
- 多模型适配:支持 1.5B 到 671B 等多种参数规模的模型,适配不同配置设备(4G 内存可运行小模型,高配置设备可体验大模型);
- 丰富知识覆盖:训练数据涵盖科技、历史、文化等领域,可解答专业问题与生活常识;
- 文本生成多样:支持创作文案、故事、报告等内容,辅助创意与办公场景;
- 图形化交互:搭配 Chatbox 图形界面,操作直观,降低使用门槛。
基于 Ollama 本地部署框架,通过离线模型实现大语言模型功能,数据蒸馏技术优化模型体积与性能,平衡精度与资源占用,适合个人用户在无网络环境下使用。
-
解压安装包
① 鼠标右击【deepseek】压缩包;② 选择解压软件(如 360 压缩);③ 点击【解压到 deepseek】。
⚠️ 易错提示:若文件无法解压,可点击查看《如何安装解压软件?》。
-
运行部署程序
打开解压后的文件夹,鼠标右击【Setup】,选择【以管理员身份运行】。
-
开始安装
点击【Install】,该框架默认安装在 C 盘(无法更改路径),等待安装完成。
-
验证部署框架
- 鼠标右击桌面【开始】菜单,选择【终端管理员】;
- 输入命令
ollama help
并按【Enter】,若显示帮助信息则框架安装成功。
-
下载模型
- 打开模型官网:https://ollama.com/library/deepseek-r1;
- 选择适配的模型版本(根据电脑配置选择,参数规模与需求空间如下):
模型版本 |
所需空间 |
推荐内存 |
部署命令 |
1.5b |
1.1GB |
4G 及以上 |
ollama run deepseek-r1:1.5b |
7b |
4.7GB |
8G 及以上 |
ollama run deepseek-r1:7b |
8b |
4.9GB |
8G 及以上 |
ollama run deepseek-r1:8b |
14b |
9GB |
16G 及以上 |
ollama run deepseek-r1:14b |
32b |
20GB |
32G 及以上 |
ollama run deepseek-r1:32b |
70b |
43GB |
64G 及以上 |
ollama run deepseek-r1:70b |
671b |
404GB |
128G 及以上 |
ollama run deepseek-r1:671b |
- 点击右上角【Download】,选择 Windows 版本下载。
-
部署模型
- 打开【终端管理员】,输入对应模型的部署命令(如
ollama run deepseek-r1:8b
),按【Enter】;
- 等待模型安装完成,界面显示
success
即部署成功。
-
测试模型
在终端中输入问题(如 “什么是人工智能?”),模型会离线生成回答,验证功能正常。
-
运行 UI 安装程序
打开解压后的【deepseek】文件夹,鼠标右击【Chatbox-1.9.5-Setup】,选择【以管理员身份运行】。
-
安装图形界面
- 点击【下一步】;
- 修改安装路径(如将 “C” 改为 “D”),点击【安装】;
- 安装完成后点击【完成】。
-
连接离线模型
- 打开 Chatbox,点击【使用自己的 API】;
- 选择【ollama API】;
- 选择已安装的模型(如
deepseek-r1:8b
),点击【保存】。
-
安装成功
图形界面显示模型连接成功,即可通过 UI 进行离线对话。
- 模型选择:根据内存配置选择模型(4G 内存优先 1.5B,16G 内存可尝试 14B),避免因配置不足导致运行卡顿;
- 磁盘空间:基础框架 + 1.5B 模型约需 2.2GB,70B 模型需 43GB 以上,确保目标磁盘空间充足;
- 运行效率:大模型(如 32B、70B)对 CPU 性能要求高,建议搭配多核处理器;无独立显卡时,生成速度可能较慢(单次回答 10-30 秒);
- 常见问题:若终端命令报错,检查 Ollama 框架是否安装成功(重新运行
ollama help
);模型下载失败可手动访问官网获取离线包。
- 离线对话:在 Chatbox 输入框直接提问(如 “写一段关于环保的短文”),模型离线生成回答;
- 参数调整:在 UI 设置中可修改 “生成长度”“温度”(控制随机性)等参数,优化输出效果;
- 多轮对话:支持上下文关联,可基于上一轮回答继续追问,深化讨论内容。
通过以上步骤,您可完成 DeepSeek 离线版的全本地部署,实现完全离线的
AI 交互功能,兼顾隐私保护与智能辅助需求。