Ollama

排序:

Ollama更新功能解析:本地大模型部署更简单了

Ollama更新功能解析:本地大模型部署更简单了 Ollama作为本地大模型部署的首选工具,近期更新带来了多项实用功能升级。本文带你快速了解新特性,掌握最前沿的本地AI部署方案。 新版本核心更新 1. 模型管理优化 新增 ollama list 命令快速查看已安装模型 支持模型标 …

本地运行大模型:Ollama完全指南

如何在本地运行大语言模型?Ollama让这一切变得简单。本文详解Ollama的安装、配置与模型选择。

Ollama+DeepSeek R1本地部署完全指南:零基础也能学会

Ollama+DeepSeek R1本地部署完全指南:零基础也能学会 前言 DeepSeek R1作为国产开源大模型,凭借其强大的推理能力和开源特性,备受开发者关注。本文将详细介绍如何在本地使用Ollama部署DeepSeek R1,实现属于自己的AI助手。

本地AI知识库搭建教程:Ollama +AnythingLLM 实战指南

手把手教你搭建本地AI知识库,使用Ollama+AnythingLLM实现私有文档问答

本地部署 DeepSeek-R1 模型指南:Ollama 实战教程

手把手教你使用Ollama在本地部署DeepSeek-R1大模型,配置API接口实现个人AI助手

Ollama 2026新版本体验:本地AI部署更简单了

Ollama 0.5版本更新了哪些功能?2026年本地AI部署更简单,模型管理、性能优化全面升级。

Ollama 0.5最新部署教程:2026本地大模型一键运行

Ollama 0.5版本最新部署教程,支持最新模型架构,本地运行大模型更简单。

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本 什么是模型量化 模型量化(Quantization)是将大模型的权重从高精度(如FP32/16bit)转换为低精度(如INT8/INT4)的技术。 量化的核心优势:

8845HS性能实测:能跑多大本地大模型

实测 AMD 8845HS 运行本地大语言模型能力,详解能跑多少参数的量化模型。

本地大模型部署指南:Ollama配置全攻略

详解Ollama本地大模型部署配置,从安装到优化,手把手教你搭建私人AI助手。

Ollama模型量化指南2026:让老显卡也能跑大模型

模型量化是什么?如何在Ollama中使用量化模型?本文手把手教你用6GB显存跑通DeepSeek-R1。

DeepSeek R1本地部署指南:Ollama+NPU加速实战

DeepSeek R1本地部署指南:Ollama+NPU加速实战 DeepSeek R1为何火爆 2026年初,DeepSeek R1以开源姿态横空出世,推理能力直逼GPT-4,但参数效率更高。配合Ollama本地部署,让每个人都能在个人电脑上运行顶级AI大模型。