OpenClaw本地部署保姆级教程:Windows 11 + Ollama

本教程将手把手教你在Windows 11系统上从零开始部署OpenClaw,整个过程分为五个部分:

  1. 准备环境:安装Node.js等基础软件。
  2. 部署模型:安装Ollama并拉取大模型。
  3. 安装核心:安装并初始化OpenClaw。
  4. 对接配置:将OpenClaw与本地模型连接起来。
  5. 运行检验:启动服务并通过网页使用。

第一部分:部署前准备(环境搭建)

在开始安装前,需要确保你的电脑满足硬件要求,并装好必备的软件。

1.1 硬件要求

  • 显卡 (GPU):NVIDIA显卡,显存建议≥8GB(如RTX 3060/4060),可流畅运行7B~14B参数的模型。如果显存只有4GB,可以运行4B的轻量模型。
  • 内存 (RAM):建议≥16GB(运行14B以上模型建议32GB)。
  • 磁盘空间:预留至少20GB的可用空间,推荐使用SSD固态硬盘以加快模型加载速度。
  • 处理器:Intel i5或Ryzen 5及以上即可。

1.2 软件安装与验证

OpenClaw基于Node.js运行,因此Node.js是必须安装的。

  1. 安装 Node.js
    • 访问 Node.js 官网,下载 LTS(长期支持版) 安装包,例如 22.x.x 版本。
    • 运行安装程序,务必勾选 “Automatically install the necessary tools” 和 “Add to PATH”(添加到系统路径),然后一路点击“下一步”完成安装。
  2. 验证安装
    • 按下键盘上的 Win 键,输入 PowerShell,右键点击并选择 “以管理员身份运行”
    • 在打开的窗口中依次输入以下命令,并回车。如果能看到版本号,说明安装成功:powershell复制下载node –version npm –version注:npm是Node.js的包管理工具,会随Node.js自动安装。
  3. 配置npm镜像(可选但推荐)
    • 为了加速后续OpenClaw的下载,建议将npm的下载源替换为国内镜像。在管理员PowerShell中输入:powershell复制下载npm config set registry https://registry.npmmirror.com

第二部分:部署本地大脑(Ollama + 大模型)

这一部分我们将安装Ollama,并下载一个强大的国产开源模型 Qwen2.5(通义千问)。

2.1 安装 Ollama

  1. 访问 Ollama官方网站,点击 Download,选择 Windows 版本下载安装包。
  2. 运行下载的安装包,点击“Install”进行安装。安装完成后,Ollama会自动在后台运行,你可以在任务栏右下角看到它的图标-1

2.2 拉取大模型

接下来,我们需要通过Ollama下载模型。模型文件较大(几个GB),请确保网络通畅。

  1. 打开一个新的管理员PowerShell窗口
  2. 输入以下命令拉取 Qwen2.5 7B 模型(这是目前综合表现很好的全能模型,约4.7GB):powershell复制下载ollama pull qwen2.5:7b
    • 如果你的电脑显存只有4GB左右,可以拉取一个更小的版本(约2.9GB):powershell复制下载ollama pull qwen2.5:4b
    • 等待进度条走完,显示 success 即表示下载完成。

2.3 定制模型(关键步骤!)

OpenClaw为了处理长对话和复杂任务,要求模型具备较大的“上下文窗口”(至少16000 tokens)。而Qwen2.5的默认窗口只有4096,因此我们需要创建一个定制版本,将窗口扩大到32768。

  1. 创建配置文件
    在刚才的PowerShell中,依次执行以下两条命令,创建一个名为 Modelfile 的配置文件:powershell复制下载cd C:\Users\<你的用户名>(请将 <你的用户名> 替换成你自己的Windows用户名)powershell复制下载@”FROM qwen2.5:7b PARAMETER num_ctx 32768″@ | Out-File -Encoding ascii Modelfile注意:如果你下载的是 qwen2.5:4b,请将第一行的 qwen2.5:7b 也改为 qwen2.5:4b
  2. 创建自定义模型
    运行以下命令,基于配置文件创建一个新的模型,并命名为 qwen2.5:7b-32k:powershell复制下载ollama create qwen2.5:7b-32k -f Modelfile等待命令执行完成,显示 success 即可。
  3. 验证模型
    输入以下命令,你应该能看到新创建的 qwen2.5:7b-32k 模型:powershell复制下载ollama list

第三部分:安装智能体核心(OpenClaw)

环境准备好后,我们开始安装OpenClaw本体。

  1. 全局安装 OpenClaw
    在管理员PowerShell中执行以下命令:powershell复制下载npm install -g openclaw@latest
  2. 验证安装
    安装完成后,输入以下命令查看版本号,确认安装成功:powershell复制下载openclaw –version

第四部分:配置OpenClaw,连接本地模型

安装完成后,我们需要告诉OpenClaw如何找到并使用我们刚才在Ollama中创建的模型。

  1. 启动配置向导
    在PowerShell中输入以下命令,启动配置向导:powershell复制下载openclaw onboard –install-daemon
  2. 跟随向导进行配置
    这是一个交互式的配置过程,你需要根据提示输入信息。请严格按下表操作:提示问题你需要输入/选择的内容说明Model/auth provider (模型/验证提供商)选择 Custom Provider因为我们用的是Ollama,不是云服务商。API Base URL (API地址)输入 http://127.0.0.1:11434/v1这是Ollama的API地址,固定格式。API Key (API密钥)输入任意非空字符,例如 ollama 或 123456Ollama本地不需要验证,但OpenClaw要求不能为空,随便填即可。Endpoint compatibility (接口兼容性)选择 OpenAI-compatibleOllama兼容OpenAI的接口格式。Model ID (模型ID)输入 qwen2.5:7b-32k必须输入我们在Ollama中创建的自定义模型名字接下来的其他选项全部选择 Skip for now 或 No例如扩展技能(Skills)、消息平台(Channels)等,可以先跳过,后续按需添加。当向导最后显示 “Verification successful” 时,说明OpenClaw成功连接上了本地的Ollama模型!
  3. 记录重要信息
    配置完成后,控制台会输出几行重要信息,请务必复制保存
    • Web UI 地址:通常是 http://127.0.0.1:18789
    • 管理员 Token:一长串字符,用于登录网页控制台。

第五部分:启动并使用OpenClaw

现在,一切就绪,可以启动你的专属AI助理了。

  1. 检查服务状态
    在PowerShell中输入以下命令,确保网关服务正在运行:powershell复制下载openclaw gateway status如果没在运行,可以用 openclaw gateway start 启动它。
  2. 打开网页控制台 (Dashboard)
    这是最直观的使用方式。在PowerShell中输入:powershell复制下载openclaw dashboard该命令会自动用你的默认浏览器打开 http://127.0.0.1:18789/?token=你的Token 这个地址。
  3. 开始对话
    在网页聊天框中,你就可以像使用任何AI助手一样,用自然语言给OpenClaw下达指令了。例如:
    • “帮我写一个Python脚本,用来整理桌面上的文件。”
    • “搜索一下今天的科技新闻。”
    • “把我的备忘录里的待办事项列出来。”
    (请注意:由于我们只部署了对话模型,执行具体的“文件操作”、“联网搜索”等动作,还需要后续在Dashboard中安装对应的“技能-Skills”,但这已经超出了本教程的范围。)

常见问题排查

  • 问题:运行 openclaw 命令提示“无法加载文件…,因为在此系统上禁止运行脚本。”
    • 解决:这是PowerShell的执行策略限制。以管理员身份打开PowerShell,运行 Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force 即可。
  • 问题:OpenClaw启动后报错 “Model context window too small”(模型上下文窗口过小)。
    • 解决:这是因为你没有按照 第二部分第3点 的操作创建并指定自定义模型。请确认你在 openclaw onboard 配置时输入的 Model ID 是你自己创建的那个(如 qwen2.5:7b-32k),并且该模型已通过 ollama list 命令确认存在。
  • 问题:安装OpenClaw时卡住或速度很慢。
    • 解决:确认你已经配置了npm国内镜像 (npm config set registry https://registry.npmmirror.com)。

恭喜!至此,你已经成功在本地部署了OpenClaw,并让它运行在你自己的电脑上。祝你玩得开心!

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注