【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】
OpenClaw 完整安装实施教程Windows Ollama 本地模型小龙虾完整安装实施教程一、系统与环境要求二、第一步安装 Ollama本地大模型服务1. 安装 Ollama2. 拉取本地模型以 qwen2:7b 为例3. 验证 Ollama 运行三、第二步安装 OpenClaw1. 管理员权限打开 PowerShell2. 允许脚本执行解决权限报错3. 一键安装 OpenClaw官方脚本4. 验证安装四、第三步OpenClaw 初始化配置1. 启动配置向导2. 配置步骤按提示选择全程无脑操作五、第四步手动优化配置关键解决模型报错1. 找到配置文件路径2. 替换为推荐配置直接复制覆盖六、第五步启动与使用 OpenClaw1. 启动 OpenClaw 网关2. 访问 Web UI推荐可视化操作3. 命令行聊天可选4. 关键说明重要避坑七、常用命令汇总速查八、常见问题与解决方案避坑必看1. Ollama 连接失败2. 模型不显示、无法调用3. 端口占用提示“port 18789 is in use”4. /exec 指令不自动执行九、总结小龙虾完整安装实施教程OpenClaw俗称 “小龙虾”是一款开源、本地优先、以任务执行为核心的 AI 智能体Agent框架核心价值是将 AI 从 “只给建议” 的对话模式升级为 “动手执行” 的自动化模式一、OpenClaw 核心使用场景个人效率与生活助理最普及文件与电脑自动化批量重命名、分类整理、格式转换、定时备份、清理磁盘。办公内容生成周报 / 日报 / 总结自动撰写、邮件收发与分类、日程管理、会议纪要。生活管家健康记录分析、智能家居控制、快递追踪、旅行规划、提醒服务。内容创作小红书 / 公众号 / 短视频文案、广告语、标题、海报文案批量生成。开发者与 IT 运维代码助手自然语言生成脚本 / 函数、调试、优化、单元测试、文档生成。运维自动化服务器巡检、日志分析、服务重启、环境部署、CI/CD 流程、监控告警。数据处理API / 数据库取数、清洗、去重、格式转换、报表生成。企业办公与业务自动化商业化主力财务 / HR 自动化发票核验、银行对账、简历筛选、面试邀约、考勤统计、入离职办理。营销 / 电商自动化社媒内容生成 发布、评论回复、广告数据监控、订单处理、售后自动回复。跨系统流程ERP/CRM 数据同步、审批流自动处理、RFP / 标书自动填充。团队协作中枢任务分配、进度跟踪、多 IM钉钉 / 飞书 / 微信消息整合、知识库问答。多智能体协同高阶场景客服路由主 Agent 分流至技术 / 财务 / 投诉专职 Agent 并行处理。复杂项目多 Agent 分工解析、检索、撰写、校验完成长文档 / 标书。数字员工集群一人管理多个 AI Agent替代多岗位重复工作。二、OpenClaw 未来五大趋势2026–2030从个人工具 → 企业级 PaaS 平台企业级能力权限管控、SSO、审计日志、团队协作、私有化部署、数据隔离。管控与观测WebUI 集中管理、Token 消耗监控、任务审计、安全沙盒强化。定位成为企业内部 AI 自动化的标准基础设施。技能生态平台化AI 时代的 App StoreClawHub 技能市场1.3 万 技能 → 10 万 覆盖全行业模板。商业化闭环开发者发布付费技能、企业订阅、定制化服务。低代码 / 无代码普通人拖拽构建自动化流程无需编程。多模态 具身智能从电脑走向物理世界多模态升级文本 → 语音 / 图像 / 视频 / 屏幕理解OCR、截图、桌面操作。IoT 与硬件控制全屋智能大脑、工业设备、机器人、车载系统的自然语言控制。数字→物理闭环一句指令完成跨设备、跨场景复杂任务链。单智能体 → 分布式多智能体网络主从 Agent 架构一个主 Agent 调度 N 个专业子 Agent代码 / 数据 / 设计 / 客服。跨设备协同电脑 / 手机 / 服务器 / 边缘设备分布式算力组网。自主协作Agent 间自动沟通、分工、纠错、合并结果。本地 / 边缘优先 隐私安全强化数据不出域全流程本地执行敏感数据不上云满足合规。边缘计算优化低延迟、离线可用、IoT / 移动端轻量化部署。安全治理权限最小化、操作审计、危险指令拦截、企业级安全认证。一、系统与环境要求提前确认电脑满足以下配置避免安装后出现运行卡顿、模型无法加载等问题项最低配置推荐配置系统Windows 10/11 64 位Windows 11 64 位内存≥4GB≥8GB磁盘≥5GB 可用空间≥20GB含模型缓存依赖Node.js ≥22.x、Ollama最新版 Node.js、Ollama网络可联网稳定网络拉取模型二、第一步安装 Ollama本地大模型服务Ollama 是本地大模型运行的核心负责模型的加载与推理必须先安装并启动否则 OpenClaw 无法调用本地模型。1. 安装 Ollama以管理员身份打开 PowerShell开始菜单搜索 PowerShell右键选择“以管理员身份运行”执行以下命令一键安装# 管理员 PowerShell 执行curl-fsSL https://ollama.com/install.ps1|iex安装过程自动完成无需手动操作等待命令执行结束即可。2. 拉取本地模型以 qwen2:7b 为例Ollama 安装完成后拉取常用的 qwen2:7b 模型轻量、适配本地运行执行命令ollama pull qwen2:7b# 可选glm-4.7-flash轻量、长上下文适合处理长文档ollama pull glm-4.7-flash拉取速度取决于网络模型大小约 4GB 左右耐心等待即可拉取一次后续可离线使用。3. 验证 Ollama 运行执行以下命令验证 Ollama 是否正常启动并加载模型curl http://127.0.0.1:11434/api/tags若返回包含 qwen2:7b 或 glm-4.7-flash 的模型列表说明 Ollama 运行正常若提示“无法连接”重启电脑后重新执行即可。三、第二步安装 OpenClawOpenClaw 作为 AI 智能体框架负责提供聊天界面、工具调用等功能安装前需先解决 PowerShell 脚本执行权限问题。1. 管理员权限打开 PowerShell同第一步确保以管理员身份启动 PowerShell否则会出现权限报错。2. 允许脚本执行解决权限报错执行以下命令允许当前用户运行本地脚本仅执行一次即可Set-ExecutionPolicyRemoteSigned-Scope CurrentUser-Force出现确认提示时直接按回车即可。3. 一键安装 OpenClaw官方脚本执行官方安装脚本自动完成 OpenClaw 的下载与安装iwr-useb https://openclaw.ai/install.ps1|iex4. 验证安装安装完成后执行以下命令查看版本号确认安装成功openclaw--version若输出版本号如 2026.3.31说明 OpenClaw 安装成功。四、第三步OpenClaw 初始化配置安装完成后需通过配置向导设置运行模式、模型供应商等参数生成初始配置文件。1. 启动配置向导在 PowerShell 中执行以下命令启动 OpenClaw 初始化配置向导openclaw onboard2. 配置步骤按提示选择全程无脑操作运行模式选择Local仅本地模型无需联网调用云端模型模型供应商选择ollama对应我们安装的本地模型服务API Key任意填写如ollama-local本地模型无需真实 API Key工作区默认即可路径C:\Users\Administrator\.openclaw\workspace端口默认18789无需修改后续通过该端口访问 Web 界面配置完成后向导会自动生成openclaw.json配置文件进入下一步优化配置。五、第四步手动优化配置关键解决模型报错初始化配置后需手动修改配置文件确保 OpenClaw 正确调用 Ollama 本地模型避免出现“API Key 缺失”“模型无法找到”等报错。1. 找到配置文件路径配置文件默认路径C:\Users\Administrator\.openclaw\openclaw.json打开方式复制路径到文件管理器地址栏回车进入右键openclaw.json选择“打开方式 → 记事本”。2. 替换为推荐配置直接复制覆盖全选记事本中的原有内容删除后复制以下完整配置粘贴无需修改任何内容直接适配你的环境{agents:{defaults:{workspace:C:\\Users\\Administrator\\.openclaw\\workspace,model:{primary:ollama/qwen2:7b}}},gateway:{mode:local,auth:{mode:token,token:de3f69198247b949bd53623617688517be6f82e212f2c00b},port:18789,bind:loopback,tailscale:{mode:off,resetOnExit:false},controlUi:{allowInsecureAuth:true},nodes:{denyCommands:[camera.snap,camera.clip,screen.record,contacts.add,calendar.add,reminders.add,sms.send,sms.search]}},session:{dmScope:per-channel-peer},tools:{profile:coding},channels:{zalouser:{enabled:true,dmPolicy:pairing}},plugins:{entries:{zalouser:{enabled:true},duckduckgo:{enabled:true}}},models:{mode:merge,providers:{ollama:{baseUrl:http://127.0.0.1:11434,api:ollama,apiKey:ollama-local,models:[{id:qwen2:7b,name:qwen2:7b,reasoning:false,input:[text],cost:{input:0,output:0,cacheRead:0,cacheWrite:0},contextWindow:32768,maxTokens:8192},{id:glm-4.7-flash,name:glm-4.7-flash,reasoning:false,input:[text],cost:{input:0,output:0,cacheRead:0,cacheWrite:0},contextWindow:128000,maxTokens:8192}]}}},auth:{profiles:{ollama:default:{provider:ollama,mode:api_key}}}}粘贴完成后按CtrlS保存文件关闭记事本。六、第五步启动与使用 OpenClaw配置优化完成后启动 OpenClaw 网关即可通过 Web 界面或命令行使用。1. 启动 OpenClaw 网关在 PowerShell 中执行以下命令启动 OpenClaw 网关核心服务openclaw gatewaystart启动成功后会提示“listening on ws://127.0.0.1:18789”。2. 访问 Web UI推荐可视化操作打开任意浏览器输入以下地址即可进入 OpenClaw 可视化聊天界面http://127.0.0.1:18789无需登录直接进入聊天框即可与本地模型对话。3. 命令行聊天可选若不想使用 Web 界面可直接在 PowerShell 中执行以下命令进行命令行聊天openclaw chat4. 关键说明重要避坑/exec指令仅生成系统命令不会自动执行OpenClaw 出于安全设计无自动执行系统命令的权限生成的命令如创建文件夹、修改文件需手动复制到 PowerShell/CMD 中运行才能生效当前配置中tools.profile: coding已默认开启文件读写、代码执行、网页搜索能力无需额外配置。七、常用命令汇总速查整理 OpenClaw 日常使用高频命令复制即可执行无需记忆# 启动 OpenClaw 网关openclaw gatewaystart# 重启 OpenClaw 网关配置修改后需执行openclaw gateway restart# 停止 OpenClaw 网关openclaw gateway stop# 查看已加载的模型列表openclaw models list# 切换默认使用的本地模型如切换为 glm-4.7-flashopenclaw modelssetollama/glm-4.7-flash# 查看当前 OpenClaw 配置openclaw config show# 进入命令行聊天模式openclaw chat# 查看 OpenClaw 版本号openclaw--version八、常见问题与解决方案避坑必看汇总安装与使用过程中最常见的 4 个问题快速定位解决1. Ollama 连接失败原因Ollama 服务未启动或 baseUrl 配置错误解决方案① 重启电脑Ollama 会自动启动② 检查配置文件中baseUrl为http://127.0.0.1:11434不要加/v1。2. 模型不显示、无法调用原因模型未拉取成功或配置文件中模型路径错误解决方案① 重新拉取模型ollama pull qwen2:7b② 重启 OpenClaw 网关openclaw gateway restart。3. 端口占用提示“port 18789 is in use”原因18789 端口被其他软件占用解决方案打开openclaw.json将port: 18789改为其他未占用端口如 18790保存后重启网关。4. /exec 指令不自动执行原因不是配置错误而是 OpenClaw 本身的安全设计解决方案手动复制生成的命令到 PowerShell/CMD 中运行即可。九、总结本次教程完成了 OpenClaw Ollama 本地模型的完整部署核心逻辑总结如下Ollama 负责本地模型的加载与推理是 OpenClaw 调用本地 AI 的基础OpenClaw 提供聊天界面、工具调用、配置管理等功能主打本地优先、安全可控核心避坑点配置文件中模型路径必须为ollama/qwen2:7b否则会出现 API Key 报错OpenClaw 不支持自动执行系统命令安全设计需手动运行生成的命令。按照以上步骤操作即可实现 OpenClaw 稳定运行享受本地 AI 聊天、工具调用的便捷体验。补充说明若需要快速部署可直接使用一键安装脚本无需手动执行每一步命令留言可获取脚本。提示本人以抱着学习的态度去分享以上内容如有雷同不胜荣幸如有不足欢迎评论留言