Ollama 本地部署 DeepSeek R1:最低配置要求

Ollama 本地部署 DeepSeek R1:最低配置要求

DeepSeek R1 开源后,很多人想本地部署。最低配置到底是多少?

不同参数模型配置要求:

模型量化版本显存要求内存要求推荐设备
1.5BQ4_K_M4GB8GBN100 迷你主机
7BQ4_K_M8GB16GB核显轻薄本
14BQ5_K_M12GB24GB游戏本 / 迷你主机
32BQ4_K_M20GB32GB台式机 / 显卡坞
70BQ4_K_M43GB64GB多卡服务器

实测数据:

  • N100 部署 1.5B 模型:每秒 8 tokens
  • 8845HS 部署 7B 模型:每秒 15 tokens
  • 13900H + 32GB 内存:7B 模型每秒 25 tokens

部署命令:

ollama run deepseek-r1:1.5b

模型太大?用 llama.cpp 做量化处理,效果差不多,占用少一半。

← 返回首页