DeepSeek R1 本地部署教程:免费开源 + 满血版 671B 模型,性能对标 GPT-4

DeepSeek R1 本地部署教程:免费开源 + 满血版 671B 模型,性能对标 GPT-4

DeepSeek R1 是国产大模型的黑马,推理能力直接对标 OpenAI o1,而且完全开源免费。今天教你在本地部署 DeepSeek R1。

硬件要求

模型规模显存要求推荐显卡
1.5B2GB核显
7B8GBRTX 3060
14B16GBRTX 4080
32B48GBRTX 4090
671B404GB多卡 H100

普通用户推荐 7B 或 14B 版本,体验接近付费版 ChatGPT。

使用 Ollama 部署(最简方式)

1. 安装 Ollama

# Windows (PowerShell)
winget install Ollama.Ollama

# Linux/macOS
curl -fsSL https://ollama.com/install.sh | sh

2. 下载模型

# 7B 版本(推荐入门)
ollama pull deepseek-r1:7b

# 14B 版本(效果更好)
ollama pull deepseek-r1:14b

# 32B 版本(需要 48GB 显存)
ollama pull deepseek-r1:32b

3. 运行模型

ollama run deepseek-r1:7b

性能实测(7B 版本)

基准测试:

  • MMLU:85 分
  • MATH:75 分
  • HumanEval:72 分

实际对话测试:

  • 代码生成:能写出完整的 Python 爬虫
  • 数学推理:复杂积分题能做对
  • 中文理解:文言文翻译流畅

对比 ChatGPT 4o

维度DeepSeek R1 7BChatGPT 4o
免费❌ 付费
本地部署
响应速度快(本地)依赖网络
推理能力接近略强

进阶:API 对接

部署完成后,可以对接到各类客户端:

# 启动 API 服务
ollama serve

# 调用示例
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "用 Python 写一个快速排序"
}'

总结

DeepSeek R1 的优势在于开源免费 + 可本地部署,数据完全不出网,隐私有保障。7B 版本适合日常编程、写作场景;32B 版本可以跑在工作站上用作生产环境。

← 返回首页