DeepSeek R1 本地部署教程:免费开源 + 满血版 671B 模型,性能对标 GPT-4
DeepSeek R1 是国产大模型的黑马,推理能力直接对标 OpenAI o1,而且完全开源免费。今天教你在本地部署 DeepSeek R1。
硬件要求
| 模型规模 | 显存要求 | 推荐显卡 |
|---|---|---|
| 1.5B | 2GB | 核显 |
| 7B | 8GB | RTX 3060 |
| 14B | 16GB | RTX 4080 |
| 32B | 48GB | RTX 4090 |
| 671B | 404GB | 多卡 H100 |
普通用户推荐 7B 或 14B 版本,体验接近付费版 ChatGPT。
使用 Ollama 部署(最简方式)
1. 安装 Ollama
# Windows (PowerShell)
winget install Ollama.Ollama
# Linux/macOS
curl -fsSL https://ollama.com/install.sh | sh
2. 下载模型
# 7B 版本(推荐入门)
ollama pull deepseek-r1:7b
# 14B 版本(效果更好)
ollama pull deepseek-r1:14b
# 32B 版本(需要 48GB 显存)
ollama pull deepseek-r1:32b
3. 运行模型
ollama run deepseek-r1:7b
性能实测(7B 版本)
基准测试:
- MMLU:85 分
- MATH:75 分
- HumanEval:72 分
实际对话测试:
- 代码生成:能写出完整的 Python 爬虫
- 数学推理:复杂积分题能做对
- 中文理解:文言文翻译流畅
对比 ChatGPT 4o
| 维度 | DeepSeek R1 7B | ChatGPT 4o |
|---|---|---|
| 免费 | ✅ | ❌ 付费 |
| 本地部署 | ✅ | ❌ |
| 响应速度 | 快(本地) | 依赖网络 |
| 推理能力 | 接近 | 略强 |
进阶:API 对接
部署完成后,可以对接到各类客户端:
# 启动 API 服务
ollama serve
# 调用示例
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "用 Python 写一个快速排序"
}'
总结
DeepSeek R1 的优势在于开源免费 + 可本地部署,数据完全不出网,隐私有保障。7B 版本适合日常编程、写作场景;32B 版本可以跑在工作站上用作生产环境。