Skip to content

27 本地模型推荐:零成本养虾

不想花钱买 API?没问题,只要你的电脑配置够硬,你可以自己在家“发电”。

1. Ollama:小白福音

Ollama 是目前最流行的本地运行工具。

  • 安装:下载安装包,点一下就开跑。
  • 命令:在终端输入 ollama run qwen2.5:32b 就能下载大脑。
  • 对接:OpenClaw 能自动发现你电脑上的 Ollama,连 Key 都不用填。

2. 硬件要求

  • 入门:16GB 内存,可以跑一些简单的大脑。
  • 流畅:32GB 内存及以上,可以跑能干活的大脑。
  • 加速:如果你有苹果的 Mac (M系列芯片) 或者 NVIDIA 的显卡,速度会起飞。

3. 为什么用本地?

  • 绝对隐私:所有的对话都在你电脑里,拔掉网线它照样干活。
  • 练习调教:不用心疼 Token 费,你可以无限次地折磨它、调教它。

本章内容根据花生的《OpenClaw 橙皮书》改编,专为小白优化。

Released under the MIT License.