小铁的博客

Windows本地大模型部署详细教程(LM Studio + OpenClaw)附完整图文和建议配置

前言

现在迷你AI电脑比较火,我也跟风买了一台,这样就可以在家跑模型。(主要是好奇,想玩)
迷你电脑配置如下:

这款机器支持手动调节内存/显存分配,我给GPU分配了64G显存。
实测运行目前几款主流的AI大模型的效率如下:

以上模型运行的全部是Q4量化版本。

实测下来,个人感觉 Qwen3.6 35B A3B 的编码能力和工具调用能力最强。尤其是让它实现单网页,能力非常突出。
Gemma4 26B A4BGemma4 31B 的工具调用能力较差,在 OpenClaw 中表现不好,经常会聊着聊着“失联”。
GLM 4.7 Flash 的文章编写能力更好,但速度比较慢。

配置建议:
迷你工作站的优缺点很明显。
优点:

缺点:

如果你和我一样预算不足并且只是研究学习目的,可以考虑这种迷你工作站。
如果想玩得更专业一点,个人更推荐家庭服务器:

上面这套配置大概3w出头可以拿下,但是性能相比我这台2w多的迷你工作站提升很多。而且因为都是服务器用的硬件,稳定性可以保证
作为参考:9B参数量模型大概需要15G显存,30B参数量(Q4量化后)的模型最少需要30G显存

正文

1: 系统环境

我这里是一个新机器,装了 Windows 11 专业工作站最新版本。没有装 Ubantu 就是图省事,Windows用惯了。

2: 安装前提

3: 配置 LM Studio

我分别尝试了 Ollama、Unsloth Studio和LM Studio。根据软硬件适配度和使用便捷度,最终决定使用LM Studio。本文也以LM Studio为例。

3.1: 下载&安装

前往 LM Studio 官网:https://lmstudio.ai/,点击 Download for Windows 按钮下载(当前最新版本为0.4.12),然后安装

3.2: 配置

这一步主要是为了将本地模型接入 OpenClaw、Hermes Agent 或 Claude Code,如果你只需要在聊天框与模型聊天,没有其他需求,那么这一步不用做

打开 Developer - Local Server 侧边栏,启用本地服务。

启用认证:

在网络中提供服务 这一项,如果你需要在其他电脑上使用本机部署的模型则启用,否则不用启用
其他选项按需配置

3.3: 模型下载

点击左侧菜单栏中的机器人+放大镜图标,输入关键词查找模型(模糊查询),点击对应的模型,然后右侧 Download 下载
完成后点击 Load Model 即可聊天,你可以在右侧自定义一些模型参数,鼠标悬停在参数标签上时会弹出参数介绍

建议把主流的模型都下载下来,都试过才知道哪个最适合自己。建议的模型:Qwen3.6系列、GLM4.7、Gemma4系列

4: 配置 OpenClaw

4.1: 安装

如果你已经装过了,这一步可以跳过

4.2: 配置

当前页面是本站的「Google AMP」版。查看和发表评论请点击:完整版 »