27 本地模型推荐:零成本养虾
不想花钱买 API?没问题,只要你的电脑配置够硬,你可以自己在家“发电”。
1. Ollama:小白福音
Ollama 是目前最流行的本地运行工具。
- 安装:下载安装包,点一下就开跑。
- 命令:在终端输入
ollama run qwen2.5:32b就能下载大脑。 - 对接:OpenClaw 能自动发现你电脑上的 Ollama,连 Key 都不用填。
2. 硬件要求
- 入门:16GB 内存,可以跑一些简单的大脑。
- 流畅:32GB 内存及以上,可以跑能干活的大脑。
- 加速:如果你有苹果的 Mac (M系列芯片) 或者 NVIDIA 的显卡,速度会起飞。
3. 为什么用本地?
- 绝对隐私:所有的对话都在你电脑里,拔掉网线它照样干活。
- 练习调教:不用心疼 Token 费,你可以无限次地折磨它、调教它。
本章内容根据花生的《OpenClaw 橙皮书》改编,专为小白优化。