AI

排序:

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本

Ollama模型量化全攻略:Q4到Q2如何选择最适合自己的量化版本 什么是模型量化 模型量化(Quantization)是将大模型的权重从高精度(如FP32/16bit)转换为低精度(如INT8/INT4)的技术。 量化的核心优势:

Ollama模型量化指南2026:让老显卡也能跑大模型

模型量化是什么?如何在Ollama中使用量化模型?本文手把手教你用6GB显存跑通DeepSeek-R1。

绿联NAS与MiniMax达成战略合作:NAS行业首家内置AI大模型

绿联NAS与MiniMax达成深度战略合作,成为NAS行业首家原生内嵌AI大模型的品牌。OpenClaw应用一键安装,30天免费权益,智能存储进入AI时代。

DeepSeek R1本地部署指南:Ollama+NPU加速实战

DeepSeek R1本地部署指南:Ollama+NPU加速实战 DeepSeek R1为何火爆 2026年初,DeepSeek R1以开源姿态横空出世,推理能力直逼GPT-4,但参数效率更高。配合Ollama本地部署,让每个人都能在个人电脑上运行顶级AI大模型。

2026年GitHub最火AI Agent框架推荐:从单智能体到群体智能

2026年AI Agent框架大爆发!本文介绍GitHub最火的5个开源项目,包括agency-agents、MiroFish等,帮助你快速搭建自动化工作流。

AI Agent 爆发:如何用多智能体自动管理你的 NAS

从 GitHub 6000+ 星的 agency-agents 到 MiroFish 群体智能,AI Agent 框架正在改变 NAS 运维方式。本文教你如何用多智能体自动管理 NAS。

Ollama 模型量化指南:教你用 4GB 显存跑 70B 大模型

详细讲解Ollama模型量化原理,实测Q4_K_M、Q5_K_S、Q8_0等量化级别在RTX 3060/4060/4090上的性能表现,4GB显存也能跑70B大模型。

Ollama模型量化指南:教你把大模型塞进家用电脑,实测省显存50%

Ollama模型量化详细教程:什么是量化、怎么做、不同量化级别的性能对比,帮你用更少显存跑更强模型

本地大模型部署入门指南:Ollama使用教程,2026年轻松在电脑上跑AI

2026年本地大模型部署教程,使用Ollama在个人电脑上运行AI大模型,新手入门必看。

2026年3月GitHub热门AI项目盘点:AI伴侣、本地大模型、Agent工具

盘点2026年3月GitHub最火的AI项目,包括AIRI AI伴侣、ruflo Agent编排平台、OpenSandbox等,提供详细安装教程。

2026年AI硬件选购指南:这些设备让本地AI不再是梦

从N100到RTX 4090,不同预算的AI PC配置推荐

Day 1:GEAKOS 是什么?国产AI NAS新选择(对比飞牛OS)

GEAKOS是国产AI驱动NAS系统,集成智能相册、影视中心、远程访问。与飞牛OS对比,哪个更适合你?