LOADING
747 字
4 分钟
OpenClaw 本地模型电脑配置清单

OpenClaw 是一套以 AI Agent 为核心用户的本地运行框架,可以接入本地大语言模型或云端模型。本文整理了在本地跑模型时推荐的硬件配置,供参考。


1 最低配置(能跑,但别指望太快)

配置项最低要求
CPUx86_64 或 ARM64 现代处理器
内存16 GB RAM
GPU4 GB VRAM(NVIDIA / AMD)
存储50 GB 可用空间
系统macOS / Linux / Windows
运行时Node.js 20+

如果只跑 gateway 模式(转发到云端),10 GB 存储 + 4 GB RAM 即可,不需要 GPU。


2 推荐配置(日常使用 3B–7B 模型)

配置项推荐参数
CPU8 核以上(CPU 不是瓶颈,够用即可)
内存32 GB RAM
GPU8 GB VRAM(如 RTX 3060 / RTX 4060)
存储100 GB SSD
网络稳定连接(模型下载用)
  • 16 GB RAM:可跑 3B 参数量级模型
  • 32 GB RAM:可跑 7B 参数量级模型,体验流畅

3 高性能配置(跑 27B+ 大模型)

配置项高性能参数
CPU16 核以上
内存64 GB+ RAM
GPUNVIDIA RTX 4090(24 GB VRAM)或同级
存储500 GB NVMe SSD

Apple Silicon 方案

苹果 M 系列芯片的统一内存架构(Unified Memory)在本地模型推理上性价比很高,且内存带宽直接决定 token 生成速度:

芯片统一内存上限内存带宽适合模型规模代表机型
M432 GB120 GB/s7B–13BMacBook Air, Mac mini
M4 Pro64 GB273 GB/s13B–32BMacBook Pro 14/16
M4 Max128 GB546 GB/s32B–70BMacBook Pro 16, Mac Studio
M532 GB154 GB/s7B–13BMacBook Air(2025)
M5 Pro64 GB307 GB/s13B–32BMacBook Pro 14/16(2026)
M5 Max128 GB614 GB/s32B–70BMacBook Pro 16(2026)

参考推理速度(Ollama,4-bit 量化):

  • M4 Pro 64GB 跑 DeepSeek R1 32B:约 11–14 tok/s
  • M4 Max:约 81 tok/s(通用小模型)
  • M5 系列相比 M4 整体快约 20–27%

注意:token 生成速度由内存带宽决定,而非 CPU 频率。M5 Max 的 614 GB/s 带宽是目前消费级设备中最高的。

推荐甜蜜点:M5 Pro(64 GB)是 2026 年当前性价比最高的本地模型方案,可流畅运行 32B 量级模型。


4 本地模型运行时

OpenClaw 官方推荐搭配 Ollama 作为本地模型的运行后端(2026年3月起成为官方支持的 provider)。

Terminal window
# 安装 Ollama
brew install ollama # macOS
# 拉取模型(以 Qwen 为例)
ollama pull qwen2.5:7b
# 启动 OpenClaw 并指向 Ollama
# 在 OpenClaw 配置中设置 provider 为 ollama

推荐模型:

  • Qwen2.5 7B — 中文支持好,7B 体量,32 GB 内存可流畅运行
  • Qwen3.5 27B — 性能接近 GPT-4o Mini,需 64 GB+ 内存
  • Llama 3.1 8B — 英文任务推荐

5 存储空间估算

模型规模大约占用磁盘空间
3B~2 GB
7B~4–5 GB
13B~8 GB
27B~16 GB
70B~40 GB

6 总结

场景推荐方案
轻量体验16 GB RAM + 任意独显 4 GB VRAM
日常开发32 GB RAM + RTX 4060 / Apple M5 Pro 64GB
高强度生产64 GB RAM + RTX 4090 / M5 Max 128GB Mac Studio
低功耗部署Jetson Orin Nano

数据隐私是本地部署最大的优势——所有推理都在本机完成,不走网络。如果对数据安全有要求,本地跑模型是目前最稳妥的方案。

OpenClaw 本地模型电脑配置清单
/posts/2026-04-02-openclaw-hardware-guide/
作者
Eric
发布于
2026-04-02
许可协议
CC BY-NC-SA 4.0

部分信息可能已经过时