28 安全模型:如何保护你的“数字员工”?
养 AI 就像养宠物,你得给它筑好篱笆,防止它乱跑,也防止坏人闯进来。
1. 默认不信任原则
OpenClaw 的设计非常保守:它默认不相信任何人。
- 私信配对:陌生人发消息,AI 不会理睬,除非你手动批准。
- 沙箱隔离:AI 在群里学到的坏习惯,不会带回到你的私人记忆里。
2. 工具开关
你可以决定 AI 到底能干多少活。
- 黑白名单:你可以规定 AI 只能用那几个你信任的技能。
- 权限控制:如果你担心 AI 乱动你的电脑,你可以关掉它的“命令行执行”权限。
3. 记住:它只是“代码”
创始人曾直白地说过:“Prompt Injection(提示词注入攻击)还没解决,绝对存在风险。” 这意味着:不要在 AI 面前输入你的银行密码、支付密码等核心隐私!
本章内容根据花生的《OpenClaw 橙皮书》改编,专为小白优化。