LLM

排序:

本地运行大模型:Ollama完全指南

如何在本地运行大语言模型?Ollama让这一切变得简单。本文详解Ollama的安装、配置与模型选择。

Ollama 0.5最新部署教程:2026本地大模型一键运行

Ollama 0.5版本最新部署教程,支持最新模型架构,本地运行大模型更简单。

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本 什么是模型量化 模型量化(Quantization)是将大模型的权重从高精度(如FP32/16bit)转换为低精度(如INT8/INT4)的技术。 量化的核心优势:

8845HS性能实测:能跑多大本地大模型

实测 AMD 8845HS 运行本地大语言模型能力,详解能跑多少参数的量化模型。

本地大模型部署指南:Ollama配置全攻略

详解Ollama本地大模型部署配置,从安装到优化,手把手教你搭建私人AI助手。

DeepSeek R1本地部署指南:Ollama+NPU加速实战

DeepSeek R1本地部署指南:Ollama+NPU加速实战 DeepSeek R1为何火爆 2026年初,DeepSeek R1以开源姿态横空出世,推理能力直逼GPT-4,但参数效率更高。配合Ollama本地部署,让每个人都能在个人电脑上运行顶级AI大模型。

Ollama 0.5本地部署DeepSeek R1全攻略:6GB显卡畅玩671B大模型

Ollama 0.5版本本地部署DeepSeek R1教程,量化模型实测,6GB显存也能玩671B大模型

Ollama 模型量化指南:6 种量化方式实测对比,显存节省 70% 的秘密

Ollama 模型量化指南:6 种量化方式实测对比,显存节省 70% 的秘密 Ollama 支持多种量化方式,从 Q2_K 到 F16,不同量化等级对显存和性能影响巨大。这篇帮你搞懂怎么选,让 8GB 显存也能跑 70B 大模型。

DeepSeek R1 本地部署教程:免费开源 + 满血版 671B 模型,性能对标 GPT-4

DeepSeek R1 本地部署教程:免费开源 + 满血版 671B 模型,性能对标 GPT-4 DeepSeek R1 是国产大模型的黑马,推理能力直接对标 OpenAI o1,而且完全开源免费。今天教你在本地部署 DeepSeek R1。

Ollama 模型量化实战指南:在迷你主机上运行大模型

Ollama 模型量化实战指南:在迷你主机上运行大模型 随着 NUC 和迷你主机性能的提升,越来越多的用户开始探索在本地运行大语言模型。本文将详细介绍 Ollama 模型量化的技术方案,帮助你在有限硬件资源下获得最佳体验。

Ollama 模型量化指南:7B 模型 4GB 显存跑满血,性能损失仅 5%

Ollama 模型量化指南:7B 模型 4GB 显存跑满血,性能损失仅 5% 本地跑大模型显存不够?量化是最佳解决方案。今天实测 Ollama 量化技术,教你用 4GB 显存跑 7B 模型,性能损失仅 5%,速度提升 3 倍。

Ollama 模型量化指南:教你用 4GB 显存跑 70B 大模型

详细讲解Ollama模型量化原理,实测Q4_K_M、Q5_K_S、Q8_0等量化级别在RTX 3060/4060/4090上的性能表现,4GB显存也能跑70B大模型。