
本教程将手把手教你在Windows 11系统上从零开始部署OpenClaw,整个过程分为五个部分:
- 准备环境:安装Node.js等基础软件。
- 部署模型:安装Ollama并拉取大模型。
- 安装核心:安装并初始化OpenClaw。
- 对接配置:将OpenClaw与本地模型连接起来。
- 运行检验:启动服务并通过网页使用。
第一部分:部署前准备(环境搭建)
在开始安装前,需要确保你的电脑满足硬件要求,并装好必备的软件。
1.1 硬件要求
- 显卡 (GPU):NVIDIA显卡,显存建议≥8GB(如RTX 3060/4060),可流畅运行7B~14B参数的模型。如果显存只有4GB,可以运行4B的轻量模型。
- 内存 (RAM):建议≥16GB(运行14B以上模型建议32GB)。
- 磁盘空间:预留至少20GB的可用空间,推荐使用SSD固态硬盘以加快模型加载速度。
- 处理器:Intel i5或Ryzen 5及以上即可。
1.2 软件安装与验证
OpenClaw基于Node.js运行,因此Node.js是必须安装的。
- 安装 Node.js:
- 访问 Node.js 官网,下载 LTS(长期支持版) 安装包,例如
22.x.x版本。 - 运行安装程序,务必勾选 “Automatically install the necessary tools” 和 “Add to PATH”(添加到系统路径),然后一路点击“下一步”完成安装。
- 访问 Node.js 官网,下载 LTS(长期支持版) 安装包,例如
- 验证安装:
- 按下键盘上的
Win键,输入PowerShell,右键点击并选择 “以管理员身份运行”。 - 在打开的窗口中依次输入以下命令,并回车。如果能看到版本号,说明安装成功:powershell复制下载node –version npm –version注:npm是Node.js的包管理工具,会随Node.js自动安装。
- 按下键盘上的
- 配置npm镜像(可选但推荐):
- 为了加速后续OpenClaw的下载,建议将npm的下载源替换为国内镜像。在管理员PowerShell中输入:powershell复制下载npm config set registry https://registry.npmmirror.com
第二部分:部署本地大脑(Ollama + 大模型)
这一部分我们将安装Ollama,并下载一个强大的国产开源模型 Qwen2.5(通义千问)。
2.1 安装 Ollama
- 访问 Ollama官方网站,点击 Download,选择 Windows 版本下载安装包。
- 运行下载的安装包,点击“Install”进行安装。安装完成后,Ollama会自动在后台运行,你可以在任务栏右下角看到它的图标-1。
2.2 拉取大模型
接下来,我们需要通过Ollama下载模型。模型文件较大(几个GB),请确保网络通畅。
- 打开一个新的管理员PowerShell窗口。
- 输入以下命令拉取 Qwen2.5 7B 模型(这是目前综合表现很好的全能模型,约4.7GB):powershell复制下载ollama pull qwen2.5:7b
- 如果你的电脑显存只有4GB左右,可以拉取一个更小的版本(约2.9GB):powershell复制下载ollama pull qwen2.5:4b
- 等待进度条走完,显示
success即表示下载完成。
2.3 定制模型(关键步骤!)
OpenClaw为了处理长对话和复杂任务,要求模型具备较大的“上下文窗口”(至少16000 tokens)。而Qwen2.5的默认窗口只有4096,因此我们需要创建一个定制版本,将窗口扩大到32768。
- 创建配置文件:
在刚才的PowerShell中,依次执行以下两条命令,创建一个名为Modelfile的配置文件:powershell复制下载cd C:\Users\<你的用户名>(请将<你的用户名>替换成你自己的Windows用户名)powershell复制下载@”FROM qwen2.5:7b PARAMETER num_ctx 32768″@ | Out-File -Encoding ascii Modelfile注意:如果你下载的是qwen2.5:4b,请将第一行的qwen2.5:7b也改为qwen2.5:4b。 - 创建自定义模型:
运行以下命令,基于配置文件创建一个新的模型,并命名为qwen2.5:7b-32k:powershell复制下载ollama create qwen2.5:7b-32k -f Modelfile等待命令执行完成,显示success即可。 - 验证模型:
输入以下命令,你应该能看到新创建的qwen2.5:7b-32k模型:powershell复制下载ollama list
第三部分:安装智能体核心(OpenClaw)
环境准备好后,我们开始安装OpenClaw本体。
- 全局安装 OpenClaw:
在管理员PowerShell中执行以下命令:powershell复制下载npm install -g openclaw@latest - 验证安装:
安装完成后,输入以下命令查看版本号,确认安装成功:powershell复制下载openclaw –version
第四部分:配置OpenClaw,连接本地模型
安装完成后,我们需要告诉OpenClaw如何找到并使用我们刚才在Ollama中创建的模型。
- 启动配置向导:
在PowerShell中输入以下命令,启动配置向导:powershell复制下载openclaw onboard –install-daemon - 跟随向导进行配置:
这是一个交互式的配置过程,你需要根据提示输入信息。请严格按下表操作:提示问题你需要输入/选择的内容说明Model/auth provider (模型/验证提供商)选择 Custom Provider因为我们用的是Ollama,不是云服务商。API Base URL (API地址)输入http://127.0.0.1:11434/v1这是Ollama的API地址,固定格式。API Key (API密钥)输入任意非空字符,例如ollama或123456Ollama本地不需要验证,但OpenClaw要求不能为空,随便填即可。Endpoint compatibility (接口兼容性)选择 OpenAI-compatibleOllama兼容OpenAI的接口格式。Model ID (模型ID)输入qwen2.5:7b-32k必须输入我们在Ollama中创建的自定义模型名字。接下来的其他选项全部选择Skip for now或No例如扩展技能(Skills)、消息平台(Channels)等,可以先跳过,后续按需添加。当向导最后显示 “Verification successful” 时,说明OpenClaw成功连接上了本地的Ollama模型! - 记录重要信息:
配置完成后,控制台会输出几行重要信息,请务必复制保存:- Web UI 地址:通常是
http://127.0.0.1:18789 - 管理员 Token:一长串字符,用于登录网页控制台。
- Web UI 地址:通常是
第五部分:启动并使用OpenClaw
现在,一切就绪,可以启动你的专属AI助理了。
- 检查服务状态:
在PowerShell中输入以下命令,确保网关服务正在运行:powershell复制下载openclaw gateway status如果没在运行,可以用openclaw gateway start启动它。 - 打开网页控制台 (Dashboard):
这是最直观的使用方式。在PowerShell中输入:powershell复制下载openclaw dashboard该命令会自动用你的默认浏览器打开http://127.0.0.1:18789/?token=你的Token这个地址。 - 开始对话:
在网页聊天框中,你就可以像使用任何AI助手一样,用自然语言给OpenClaw下达指令了。例如:- “帮我写一个Python脚本,用来整理桌面上的文件。”
- “搜索一下今天的科技新闻。”
- “把我的备忘录里的待办事项列出来。”
常见问题排查
- 问题:运行
openclaw命令提示“无法加载文件…,因为在此系统上禁止运行脚本。”- 解决:这是PowerShell的执行策略限制。以管理员身份打开PowerShell,运行
Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force即可。
- 解决:这是PowerShell的执行策略限制。以管理员身份打开PowerShell,运行
- 问题:OpenClaw启动后报错 “Model context window too small”(模型上下文窗口过小)。
- 解决:这是因为你没有按照 第二部分第3点 的操作创建并指定自定义模型。请确认你在
openclaw onboard配置时输入的Model ID是你自己创建的那个(如qwen2.5:7b-32k),并且该模型已通过ollama list命令确认存在。
- 解决:这是因为你没有按照 第二部分第3点 的操作创建并指定自定义模型。请确认你在
- 问题:安装OpenClaw时卡住或速度很慢。
- 解决:确认你已经配置了npm国内镜像 (
npm config set registry https://registry.npmmirror.com)。
- 解决:确认你已经配置了npm国内镜像 (
恭喜!至此,你已经成功在本地部署了OpenClaw,并让它运行在你自己的电脑上。祝你玩得开心!