本地部署

排序:

Ollama更新功能解析:本地大模型部署更简单了

Ollama更新功能解析:本地大模型部署更简单了 Ollama作为本地大模型部署的首选工具,近期更新带来了多项实用功能升级。本文带你快速了解新特性,掌握最前沿的本地AI部署方案。 新版本核心更新 1. 模型管理优化 新增 ollama list 命令快速查看已安装模型 支持模型标 …

本地运行大模型:Ollama完全指南

如何在本地运行大语言模型?Ollama让这一切变得简单。本文详解Ollama的安装、配置与模型选择。

Ollama+DeepSeek R1本地部署完全指南:零基础也能学会

Ollama+DeepSeek R1本地部署完全指南:零基础也能学会 前言 DeepSeek R1作为国产开源大模型,凭借其强大的推理能力和开源特性,备受开发者关注。本文将详细介绍如何在本地使用Ollama部署DeepSeek R1,实现属于自己的AI助手。

本地AI知识库搭建教程:Ollama +AnythingLLM 实战指南

手把手教你搭建本地AI知识库,使用Ollama+AnythingLLM实现私有文档问答

本地部署 DeepSeek-R1 模型指南:Ollama 实战教程

手把手教你使用Ollama在本地部署DeepSeek-R1大模型,配置API接口实现个人AI助手

Ollama 0.5最新部署教程:2026本地大模型一键运行

Ollama 0.5版本最新部署教程,支持最新模型架构,本地运行大模型更简单。

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本 什么是模型量化 模型量化(Quantization)是将大模型的权重从高精度(如FP32/16bit)转换为低精度(如INT8/INT4)的技术。 量化的核心优势:

Ollama模型量化指南2026:让老显卡也能跑大模型

模型量化是什么?如何在Ollama中使用量化模型?本文手把手教你用6GB显存跑通DeepSeek-R1。

"养龙虾"成本太高?本地AI工作站成新选择

OpenClaw"养龙虾"成本太高?云端Token日均数十元年化数万,本地AI工作站成破局关键,一次部署终身免费。

DeepSeek R1本地部署指南:Ollama+NPU加速实战

DeepSeek R1本地部署指南:Ollama+NPU加速实战 DeepSeek R1为何火爆 2026年初,DeepSeek R1以开源姿态横空出世,推理能力直逼GPT-4,但参数效率更高。配合Ollama本地部署,让每个人都能在个人电脑上运行顶级AI大模型。

Ollama 0.5本地部署DeepSeek R1全攻略:6GB显卡畅玩671B大模型

Ollama 0.5版本本地部署DeepSeek R1教程,量化模型实测,6GB显存也能玩671B大模型

Stable Diffusion WebUI 本地部署教程:AI 绘画一键安装

Stable Diffusion 是目前最流行的开源 AI 绘画工具,本文将详细介绍在本地部署 Stable Diffusion WebUI 的完整方案,让你可以轻松实现 AI 生成图片。 硬件要求 最低配置 显存: 6GB(RTX 1060 6GB 起步) 内存: 16GB 存 …