找回密码
 立即注册
查看: 63|回复: 0

OpenClaw本地部署保姆级教程:Windows 11 + Ollama

[复制链接]

116

主题

0

回帖

458

积分

管理员

积分
458
发表于 2026-3-14 09:32:15 | 显示全部楼层 |阅读模式

本教程将手把手教你在Windows 11系统上从零开始部署OpenClaw,整个过程分为五个部分:


  • 准备环境:安装Node.js等基础软件。
  • 部署模型:安装Ollama并拉取大模型。
  • 安装核心:安装并初始化OpenClaw。
  • 对接配置:将OpenClaw与本地模型连接起来。
  • 运行检验:启动服务并通过网页使用。



第一部分:部署前准备(环境搭建)


在开始安装前,需要确保你的电脑满足硬件要求,并装好必备的软件。


1.1 硬件要求
  • 显卡 (GPU):NVIDIA显卡,显存建议≥8GB(如RTX 3060/4060),可流畅运行7B~14B参数的模型。如果显存只有4GB,可以运行4B的轻量模型。
  • 内存 (RAM):建议≥16GB(运行14B以上模型建议32GB)。
  • 磁盘空间:预留至少20GB的可用空间,推荐使用SSD固态硬盘以加快模型加载速度。
  • 处理器:Intel i5或Ryzen 5及以上即可。
1.2 软件安装与验证OpenClaw基于Node.js运行,因此Node.js是必须安装的。
  • 安装 Node.js
    • 访问 Node.js 官网,下载 LTS(长期支持版) 安装包,例如 22.x.x 版本。
    • 运行安装程序,务必勾选 “Automatically install the necessary tools”“Add to PATH”(添加到系统路径),然后一路点击“下一步”完成安装。
  • 验证安装
    • 按下键盘上的 Win 键,输入 PowerShell,右键点击并选择 “以管理员身份运行”
    • 在打开的窗口中依次输入以下命令,并回车。如果能看到版本号,说明安装成功:powershell复制下载node –version npm –version注:npm是Node.js的包管理工具,会随Node.js自动安装。
  • 配置npm镜像(可选但推荐)
    • 为了加速后续OpenClaw的下载,建议将npm的下载源替换为国内镜像。在管理员PowerShell中输入:powershell复制下载npm config set registry https://registry.npmmirror.com



第二部分:部署本地大脑(Ollama + 大模型)


这一部分我们将安装Ollama,并下载一个强大的国产开源模型 Qwen2.5(通义千问)。


2.1 安装 Ollama
  • 访问 Ollama官方网站,点击 Download,选择 Windows 版本下载安装包。
  • 运行下载的安装包,点击“Install”进行安装。安装完成后,Ollama会自动在后台运行,你可以在任务栏右下角看到它的图标-1


2.2 拉取大模型接下来,我们需要通过Ollama下载模型。模型文件较大(几个GB),请确保网络通畅。
  • 打开一个新的管理员PowerShell窗口
  • 输入以下命令拉取 Qwen2.5 7B 模型(这是目前综合表现很好的全能模型,约4.7GB):powershell复制下载ollama pull qwen2.5:7b
    • 如果你的电脑显存只有4GB左右,可以拉取一个更小的版本(约2.9GB):powershell复制下载ollama pull qwen2.5:4b
    • 等待进度条走完,显示 success 即表示下载完成。



2.3 定制模型(关键步骤!)OpenClaw为了处理长对话和复杂任务,要求模型具备较大的“上下文窗口”(至少16000 tokens)。而Qwen2.5的默认窗口只有4096,因此我们需要创建一个定制版本,将窗口扩大到32768。
  • 创建配置文件
    在刚才的PowerShell中,依次执行以下两条命令,创建一个名为 Modelfile 的配置文件:powershell复制下载cd C:\Users\<你的用户名>(请将 <你的用户名> 替换成你自己的Windows用户名)powershell复制下载@”FROM qwen2.5:7b PARAMETER num_ctx 32768″@ | Out-File -Encoding ascii Modelfile注意:如果你下载的是 qwen2.5:4b,请将第一行的 qwen2.5:7b 也改为 qwen2.5:4b。
  • 创建自定义模型
    运行以下命令,基于配置文件创建一个新的模型,并命名为 qwen2.5:7b-32k:powershell复制下载ollama create qwen2.5:7b-32k -f Modelfile等待命令执行完成,显示 success 即可。
  • 验证模型
    输入以下命令,你应该能看到新创建的 qwen2.5:7b-32k 模型:powershell复制下载ollama list




第三部分:安装智能体核心(OpenClaw)


环境准备好后,我们开始安装OpenClaw本体。


  • 全局安装 OpenClaw
    在管理员PowerShell中执行以下命令:powershell复制下载npm install -g openclaw@latest
  • 验证安装
    安装完成后,输入以下命令查看版本号,确认安装成功:powershell复制下载openclaw –version




第四部分:配置OpenClaw,连接本地模型


安装完成后,我们需要告诉OpenClaw如何找到并使用我们刚才在Ollama中创建的模型。


  • 启动配置向导
    在PowerShell中输入以下命令,启动配置向导:powershell复制下载openclaw onboard –install-daemon
  • 跟随向导进行配置
    这是一个交互式的配置过程,你需要根据提示输入信息。请严格按下表操作:提示问题你需要输入/选择的内容说明Model/auth provider (模型/验证提供商)选择 Custom Provider因为我们用的是Ollama,不是云服务商。API Base URL (API地址)输入 http://127.0.0.1:11434/v1这是Ollama的API地址,固定格式。API Key (API密钥)输入任意非空字符,例如 ollama123456Ollama本地不需要验证,但OpenClaw要求不能为空,随便填即可。Endpoint compatibility (接口兼容性)选择 OpenAI-compatibleOllama兼容OpenAI的接口格式。Model ID (模型ID)输入 qwen2.5:7b-32k必须输入我们在Ollama中创建的自定义模型名字接下来的其他选项全部选择 Skip for nowNo例如扩展技能(Skills)、消息平台(Channels)等,可以先跳过,后续按需添加。当向导最后显示 “Verification successful” 时,说明OpenClaw成功连接上了本地的Ollama模型!
  • 记录重要信息
    配置完成后,控制台会输出几行重要信息,请务必复制保存

    • Web UI 地址:通常是 http://127.0.0.1:18789
    • 管理员 Token:一长串字符,用于登录网页控制台。



第五部分:启动并使用OpenClaw


现在,一切就绪,可以启动你的专属AI助理了。
  • 检查服务状态
    在PowerShell中输入以下命令,确保网关服务正在运行:powershell复制下载openclaw gateway status如果没在运行,可以用 openclaw gateway start 启动它。
  • 打开网页控制台 (Dashboard)
    这是最直观的使用方式。在PowerShell中输入:powershell复制下载openclaw dashboard该命令会自动用你的默认浏览器打开 http://127.0.0.1:18789/?token=你的Token 这个地址。
  • 开始对话
    在网页聊天框中,你就可以像使用任何AI助手一样,用自然语言给OpenClaw下达指令了。例如:

    • “帮我写一个Python脚本,用来整理桌面上的文件。”
    • “搜索一下今天的科技新闻。”
    • “把我的备忘录里的待办事项列出来。”
    (请注意:由于我们只部署了对话模型,执行具体的“文件操作”、“联网搜索”等动作,还需要后续在Dashboard中安装对应的“技能-Skills”,但这已经超出了本教程的范围。)


常见问题排查




  • 问题:运行 openclaw 命令提示“无法加载文件…,因为在此系统上禁止运行脚本。”
    • 解决:这是PowerShell的执行策略限制。以管理员身份打开PowerShell,运行 Set-ExecutionPolicy -Scope CurrentUser RemoteSigned -Force 即可。
  • 问题:OpenClaw启动后报错 “Model context window too small”(模型上下文窗口过小)。
    • 解决:这是因为你没有按照 第二部分第3点 的操作创建并指定自定义模型。请确认你在 openclaw onboard 配置时输入的 Model ID 是你自己创建的那个(如 qwen2.5:7b-32k),并且该模型已通过 ollama list 命令确认存在。
  • 问题:安装OpenClaw时卡住或速度很慢。
恭喜!至此,你已经成功在本地部署了OpenClaw,并让它运行在你自己的电脑上。祝你玩得开心!



懒得打字嘛,点击右侧快捷回复 【欢迎评论】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表