OpenClaw 本地版

零API费用 | 完全本地化 | 保护隐私数据

🔒 隐私保护 💰 零API费用 ⚡ 一键部署 🌐 完全离线
授权码仅需 ¥66.66

为什么选择 OpenClaw 本地版?

💰

零API费用

使用本地大模型,无需支付任何API费用,一次购买永久使用,终身免费升级。

🔒

隐私保护

所有数据本地处理,不上传云端,确保企业机密和个人隐私安全。

一键部署

自动检测硬件,智能推荐模型,一键安装配置,轻松上手。

🌐

完全离线

无需网络也能运行 AI 助手,支持内网部署,安全可控。

🖥️

跨平台支持

支持 Windows、macOS 两大平台,满足不同用户需求。

🤖

多模型支持

支持 Ollama 全系列模型,可根据硬件配置选择最适合的模型。

📰 OpenClaw 最新资讯

了解 OpenClaw 最新动态和本地AI部署技巧

2026-04-10

OpenClaw 本地版 v2.2.1 发布:支持一键 Docker 部署

全新版本的 OpenClaw 本地版带来重大更新,现在支持一键 Docker 部署,用户可以更方便地在本地运行 AI 助手。
2026-04-08

本地AI新时代:零 API 费用搭建私人 AI 助手

随着大语言模型的发展,本地部署 AI 助手成为新趋势。OpenClaw 本地版让用户可以在自己的电脑上运行 AI,无需支付任何 API 费用。
2026-04-05

Ollama + OpenClaw:完美结合的本地 AI 解决方案

Ollama 作为本地大模型运行时,为 OpenClaw 提供了强大的本地模型支持。本文详细介绍如何配置实现完美本地 AI 体验。

立即下载

Windows 安装包

支持 Windows 10/11

⬇️ 前往下载页面

macOS 安装包

支持 Intel 和 Apple Silicon

⬇️ 前往下载页面

安装教程

Windows 安装教程

以下步骤适用于 Windows 10/11 系统。

第一步:下载安装包

  1. 打开浏览器访问 GitHub 发布页面:
    https://github.com/death1818/openclaw-local-installer/releases
  2. 找到最新版本,点击 Assets 展开下载列表
  3. 下载 OpenClaw-*-x64.exe 文件(约 60MB)
  4. 或者复制下载链接,用命令下载:
# 方法一:直接下载 exe 文件 # 访问以上链接,点击 exe 文件下载 # 方法二:使用 PowerShell 下载 # 打开 PowerShell,执行: Invoke-WebRequest -Uri "https://github.com/death1818/openclaw-local-installer/releases/latest/download/OpenClaw-2.2.1-x64.exe" -OutFile "OpenClaw.exe"

第二步:运行安装程序

  1. 找到下载的 OpenClaw.exe 文件(通常在下载文件夹)
  2. 右键点击 → 选择"以管理员身份运行"
  3. 如果弹出"用户账户控制"窗口,点击"是"
  4. 安装程序界面会启动

第三步:安装 Ollama(如未安装)

  1. 安装程序会自动检测系统是否已安装 Ollama
  2. 如果没有安装,会提示:"未检测到 Ollama"
  3. 点击 "自动安装 Ollama" 按钮
  4. 等待 Ollama 安装完成(约 2-3 分钟)
💡 手动安装 Ollama

如果自动安装失败,可以手动安装:

# 方法一:使用 PowerShell(推荐) # 以管理员身份打开 PowerShell,执行: irm https://ollama.com/install.ps1 | iex # 方法二:下载安装包 # 访问 https://github.com/ollama/ollama/releases 下载 ollama-setup.exe

第四步:输入授权码

  1. 安装程序会提示输入授权码
  2. 输入购买后获得的授权码(如 OPENCLAW-XXXX-XXXX-XXXX
  3. 点击"确认"或按回车
  4. 授权码正确后会显示"激活成功"

第五步:等待模型下载

  1. 激活成功后,安装程序会自动开始下载默认模型
  2. 推荐下载 phi3.5(约 2GB)
  3. 下载进度条会显示下载进度
  4. 下载完成后会自动启动服务
⚠️ 模型下载失败?

如果下载失败,可能是网络问题:

  • 国内用户需要开启 VPN/代理
  • 或手动下载:打开 CMD 执行 ollama pull phi3.5
  • 可尝试更小的模型:ollama pull qwen2.5:0.5b

第六步:开始使用

  1. 打开浏览器访问:http://localhost:18789
  2. 如果打不开,见下方常见问题

常见问题

⚠️ 安装后打不开?

如果安装后无法打开:

  1. 检查 Ollama 是否正常运行:
# 打开 CMD 或 PowerShell,执行: ollama --version # 如果显示版本号,说明 Ollama 正常 # 如果显示"不是内部或外部命令",需要添加环境变量
  1. 尝试手动启动 Ollama:
# 打开 CMD,执行: ollama serve
⚠️ 页面是白的/空白?

如果打开 http://localhost:18789 是空白:

  • 清除浏览器缓存:Ctrl + Shift + Delete
  • 尝试其他浏览器(Chrome/Edge/Firefox)
  • 重启 Ollama 服务:ollama serve
  • 重启电脑后重试
⚠️ 杀毒软件拦截?

如果被杀毒软件阻止:

  • 添加信任区:杀毒软件 → 设置 → 信任区
  • 临时关闭实时保护
  • 允许所有 OpenClaw 相关程序运行
💡 常用命令
  • 查看 Ollama 版本:ollama --version
  • 查看已安装模型:ollama list
  • 手动下载模型:ollama pull phi3.5
  • 删除模型:ollama rm 模型名
  • 查看运行状态:ollama ps
💡 性能优化建议
  • 关闭 Windows Defender 实时保护可以提升性能
  • 建议使用 Chrome 或 Edge 浏览器
  • 确保磁盘至少有 5GB 可用空间
  • 推荐 16GB+ 内存体验更佳

macOS 手动安装

以下步骤适用于 macOS 11 (Big Sur) 及以上版本,支持 Intel 和 Apple Silicon (M1/M2/M3/M4) 芯片。

第一步:确定你的芯片类型

  1. 点击屏幕左上角苹果图标 → 关于本机
  2. 查看"芯片"一栏:
    • Apple Silicon(M1/M2/M3/M4):下载 -arm64.dmg 文件
    • Intel:下载 -x86_64.dmg 文件

第二步:下载安装包

  1. 打开浏览器访问 GitHub 发布页面:
    https://github.com/death1818/openclaw-local-installer/releases
  2. 找到最新版本,点击 Assets 展开下载列表
  3. 根据你的芯片下载对应版本:
    • Apple Silicon (M1-M4)OpenClaw-*-arm64.dmg
    • Intel MacOpenClaw-*-x86_64.dmg
  4. 或者在终端用命令下载:
# Apple Silicon (M1-M4) 下载命令 curl -L -o OpenClaw.dmg "https://github.com/death1818/openclaw-local-installer/releases/latest/download/OpenClaw-2.2.1-arm64.dmg" # Intel Mac 下载命令 # curl -L -o OpenClaw.dmg "https://github.com/death1818/openclaw-local-installer/releases/latest/download/OpenClaw-2.2.1-x86_64.dmg"

第三步:安装应用

  1. 双击下载的 .dmg 文件
  2. 在打开的窗口中,将 OpenClaw 图标拖拽到"应用程序"文件夹
  3. 等待复制完成(约需 1-2 分钟)
  4. 复制完成后,可以关闭该窗口

第四步:允许运行(关键步骤)

  1. 首次运行 OpenClaw 时,系统会阻止运行
  2. 打开 系统设置隐私与安全性
  3. 找到"已阻止使用"的 OpenClaw
  4. 点击"仍要打开"
  5. 在弹出的确认对话框中点击"打开"
⚠️ 如果找不到选项

也可以右键点击应用程序中的 OpenClaw → 选择"打开" → 点击"打开"按钮

第五步:安装 Ollama(如未安装)

  1. OpenClaw 安装程序会自动检测 Ollama 是否已安装
  2. 如果没有安装,会提示安装 Ollama
  3. 点击"自动安装 Ollama"或手动安装:
# 打开终端(Command + Space,输入 terminal) # 执行以下命令安装 Ollama curl -fsSL https://ollama.com/install.sh | sh

第六步:输入授权码激活

  1. 安装程序会提示输入授权码
  2. 输入购买后获得的授权码(如 OPENCLAW-XXXX-XXXX-XXXX
  3. 按回车确认激活

第七步:等待模型下载

  1. 激活成功后,安装程序会自动下载默认模型
  2. 推荐下载 phi3.5(约 2GB)
  3. 下载完成后会自动启动服务

第八步:开始使用

  1. 打开浏览器访问:http://localhost:18789
  2. 如果打不开,尝试重启 Ollama:
# 在终端中执行 ollama serve # 查看已安装的模型 ollama list

常见问题

⚠️ 无法打开应用程序

如果提示"无法打开"或"已损坏":

# 在终端执行以下命令(需要管理员密码) xattr -cr /Applications/OpenClaw.app
💡 Apple Silicon 优化建议
  • 推荐使用 qwen2.5:0.5bphi3.5 模型
  • M 系列芯片运行这些模型非常流畅
  • 内存占用比 Intel 版本更低
💡 常用命令汇总
  • 查看 Ollama 版本:ollama --version
  • 查看已安装模型:ollama list
  • 手动下载模型:ollama pull phi3.5
  • 删除模型:ollama rm 模型名

常见问题

授权码可以用几次?+

每个授权码可以在一台设备上使用。更换设备可联系客服重新激活。

支持哪些操作系统?+

Windows 10/11、macOS 11+(包括 Apple Silicon)。

需要什么样的电脑配置?+

最低:8GB 内存、4核 CPU。推荐:16GB+ 内存、NVIDIA 显卡(4GB+ 显存)。

安装后如何使用?+

安装完成后访问 http://localhost:18789 即可使用。

可以安装多个模型吗?+

可以!支持模型管理,随时安装、查看、删除不同模型。

遇到问题怎么办?+

访问 GitHub 提交 Issue,或加入 Discord 社区,也可提交 工单 获取技术支持。

Ollama 检测失败怎么办?+

安装程序会自动检测 Ollama,如检测失败可手动安装:

Windows: ollama.exe --version

macOS: curl -fsSL https://ollama.com/install.sh | sh

或访问 ollama.com 下载安装。

模型下载失败怎么办?+

模型下载需要网络连接,如果下载失败:

  • 检查网络是否正常
  • 国内用户需要开启 VPN/代理,模型托管在 HuggingFace
  • 手动下载:ollama pull phi3.5
  • 可尝试其他模型如 ollama pull qwen2.5:0.5b(体积较小)
Docker 启动失败怎么办?+

如果 Docker 容器无法启动:

  • 确保 Docker 已启动:docker ps
  • 检查端口 18789 是否被占用
  • 查看日志:docker logs openclaw
  • 尝试重新安装:先 docker rm openclaw 再重新部署
启动后页面空白/白屏怎么办?+

如果是 Windows 系统首次安装后白屏:

  • 检查 Ollama 服务是否正常运行:ollama --version
  • 尝试重新启动 Ollama:ollama serve
  • 检查授权码是否正确激活
  • 清除浏览器缓存后刷新页面
授权码无效/格式错误怎么办?+

授权码格式为 OPENCLAW-XXXX-XXXX-XXXX,请确保:

  • 输入完整的授权码(含连字符)
  • 不要多输入或少输入字符
  • 联系客服重新生成授权码