← 返回设备库
📷

8845HS性能实测:能跑多大本地大模型

实测 AMD 8845HS 运行本地大语言模型能力,详解能跑多少参数的量化模型。
8.5 /10 综合评分

8845HS性能实测:能跑多大本地大模型

为什么用Mini PC跑大模型�?

相比动辄数万元的显卡�?845HS的Radeon 780M核显配合量化模型,可以实现:

  • **低成�?:整�?000-5000�?- **低功�?:满载仅45W
  • 静音:无需显卡风扇
  • 省心:即开即用

8845HS硬件规格

参数规格
架构Zen 4
核心/线程8C/16T
基础频率3.8GHz
睿频频率5.1GHz
TDP45W
核显Radeon 780M
核显算力8.9 TFLOPS
内存支持DDR5-5600

量化模型参数对照�?

常见模型量化级别

量化级别精度文件大小推荐显存
FP1616�?100%16GB+
Q88�?50%8GB+
Q66�?37.5%6GB+
Q55�?31%5GB+
Q44�?25%4GB+
Q33�?19%3GB+
Q22�?12.5%2GB+

内存带宽限制

8845HS的内存带宽是 76.8 GB/s(DDR5-5600),这限制了核显性能发挥。实际可用内存通常为分配给核显的部分�?

实测数据

llama.cpp 基准测试

模型量化内存需�?Token/s
Llama 3.1 8BQ4_K_M4.8GB15
Llama 3.1 8BQ5_K_M5.7GB12
Llama 3 8BQ4_K_M4.8GB16
Qwen 2.5 7BQ4_K_M4.3GB18
Qwen 2.5 7BQ5_K_M5.1GB14
Mistral 7BQ4_K_M4.8GB17
Phi-3.5 3BQ4_K_M2.1GB35
Phi-4 4BQ4_K_M2.7GB28

实际对话体验

模型量化启动时间响应速度可用�?
Qwen2.5-7BQ45�?15 token/s⭐⭐⭐⭐�?
Llama3.1-8BQ46�?12 token/s⭐⭐⭐⭐
Mistral-7BQ45�?17 token/s⭐⭐⭐⭐�?
Phi-4-4BQ43�?28 token/s⭐⭐⭐⭐�?

能跑多大的模型?

推荐配置

模型参数量化级别内存占用实际体验
3BQ4-Q62-3GB流畅
7BQ44-5GB可用
8BQ44.8GB可用
14BQ23-4GB勉强

结论

*8845HS能流畅运�?B Q4级别模型�?4B模型需要更激进的量化才能运行�?

推荐�?模型用�?
⭐⭐⭐⭐�?Phi-3.5/Qwen2.5-3B日常问答
⭐⭐⭐⭐�?Qwen2.5-7B综合使用
⭐⭐⭐⭐Llama3.1-8B英文为主
⭐⭐�?Mistral-7B代码能力

Ollama配置优化

建议设置

# 设置GPU层数(全部使用核显)
export OLLAMA_GPU_LAYERS=999

# 设置线程�?export OLLAMA_NUM_THREADS=8

# 内存相关
export OLLAMA_FLASH_ATTENTION=1

推荐模型列表

# 日常对话(推荐)
ollama pull qwen2.5:7b
ollama pull phi3.5:latest

# 代码能力
ollama pull codellama:7b

# 中文优化
ollama pull qwen2.5:7b-instruct-q5_K_M

# 轻量快�?ollama pull phi4:4b

与其他设备对�?

核显对比

设备核显TFLOPS7B Q4速度
8845HS780M8.915 token/s
锐龙7 7840HS780M8.915 token/s
Intel Ultra 7 155HArc 88.312 token/s
N100UHD 240.5无法运行

与显卡对�?

设备价格7B Q4速度功�?
8845HS Mini PC¥400015 token/s45W
RTX 3060 12G¥180045 token/s170W
RTX 4060 Ti¥280060 token/s120W
Apple M4 Pro¥900030 token/s30W

实际应用场景

推荐使用场景

  1. **个人知识�?*:RAG + Qwen2.5-7B
  2. 编程辅助:CodeLlama-7B
  3. 日常问答:Phi-3.5
  4. 文案创作:Qwen2.5-7B

不适合场景

  1. **13B+大模�?:即使量化也跑不�?2. 实时翻译:延迟较�?3. **长文本分�?:内存不�?4. **高并�?*:只能单用户

总结

8845HS�?目前性价比最高的本地大模型运行平�?�?B Q4模型可以流畅运行,响应速度15 token/s左右,完全满足个人使用需求�? **下一步建�?*�?- 搭配16GB内存(双通道�?- 使用Qwen2.5-7B模型