技术猿

新人适用版:永久免费2C16GVPS部署OpenClaw(附数据持久化机制)

2026/02/24
0
0

一、看完这篇文章你将获得什么?

用20分钟,亲手搭建:

  • 永久免费:专属AI助手Openclaw运行平台

  • 强劲性能:2核CPU + 16GB内存 + 8TB存储的"白嫖级"VPS

  • 完全掌控:私有化部署,不休眠,模型可切换

  • 完整记忆:利用Dataset实现对话历史持久化,增量备份重启恢复

  • 精美界面:OpenClaw现代化ChatUI

你只需要提供模型API就可以永久使用。


二、准备工作

必备账号

  1. Hugging Face账号(免费注册)→ 点击注册

  2. AI模型账号(需要付费)→ Kimi2.5:https://platform.moonshot.cn/ 或者GLM-4.7:https://www.bigmodel.cn/glm-coding?ic=IORXTLCLVM 或者硅基流动一定免费额度的众多模型:https://cloud.siliconflow.cn/i/kQTQzfuz

三、部署指南

步骤1:激活2核16G VPS配置

图片

图片

操作流程

  1. 访问 Hugging Face Spaces

  2. 点击最左侧的 "new",然后选择 "Space"

  3. 配置选项: SDK: Docker Visibility: Public 硬件:选择默认 CPU方案

  4. 空间命名:yourname-openclaw-ai(英文)

注意事项

  • 必须选Docker而非Gradio/Streamlit

  • 必须设为Public,私有空间收费

  • 创建后需等5分钟硬件才完全激活

步骤2:创建参数和Dataset

B. 创建Dataset

图片

图片


  1. 登录 huggingface.co → "新建" → "New dataset"

  2. 填写名称→注意选择 "Private" ```

  3. 点击 "Create Dataset"

注意记录Dateset的名称。

A. 创建HF Token

图片

图片


  1. 登录 huggingface.co →点击自己的头像,选择最下面的 → "Access Tokens" → 验证自己的登录口令

  2. 点击 **"Create New Token": 填写Token名称 在下面的输入框中点击会展示自己已经创建的dataset,选择对应的dataset,选择 "Write access to contents/settings of selected repos" 权限 最后点击页面最下面的 "Create New Token"*。 打开的页面中复制Token,保存到安全的位置,用于一会在环境变量中填写。注意这个Token只展示一次。

步骤3:添加环境变量

**A. 进入Space空间页面 →  "Settings" B. 下拉页面找到 "Variables and secrets",点击 “New Secret” 逐个创建下面所有变量:

图片

变量名

必填

权限类型

作用描述

OPENCLAW_GATEWAY_PASSWORD

Variable

访问 UI 的密码。

OPENAI_API_KEY

Secret

供应商 API 密钥。

OPENAI_API_BASE

Variable

API 终端地址。

MODEL

Variable

模型 ID(如 deepseek-ai/DeepSeek-V3.2)。

HF_TOKEN

Secret

刚才创建的 Write 权限 Token。

HF_DATASET

Variable

格式为 用户名/数据集名

步骤4:部署OpenClaw框架

**A. 启动Docker容器

  1. 进入Space页面,点击 "Files"

  2. 点击 "Add file" → "Create a new file"

  3. 文件名:Dockerfile

  4. 粘贴下面代码:

# 核心镜像:Node 22 slim 保证了环境的现代性与轻量化
FROM node:22-slim

# 1. 安装系统依赖
# 包含:git (拉取依赖), openssh-client (解决构建报错), build-essential/g++/make (编译原生模块), python3 (运行同步脚本)
RUN apt-get update && apt-get install -y --no-install-recommends \
    git openssh-client build-essential python3 python3-pip \
    g++ make ca-certificates \
    && rm -rf /var/lib/apt/lists/*

# 2. 安装 Hugging Face 命令行工具
RUN pip3 install --no-cache-dir huggingface_hub --break-system-packages

# 3. 构建环境优化
# 修复 Git 证书问题并将所有 SSH 协议重定向为 HTTPS
RUN update-ca-certificates && \
    git config --global http.sslVerify false && \
    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

# 4. 全局安装 OpenClaw
RUN npm install -g openclaw@latest --unsafe-perm

# 5. 设置环境变量
ENV PORT=7860 \
    OPENCLAW_GATEWAY_MODE=local \
    HOME=/root

# 6. 核心同步引擎 (sync.py)
# 针对 OpenClaw 新版 MEMORY.md 机制进行了全路径覆盖
RUN echo 'import os, sys, tarfile\n\
from huggingface_hub import HfApi, hf_hub_download\n\
from datetime import datetime, timedelta\n\
api = HfApi()\n\
repo_id = os.getenv("HF_DATASET")\n\
token = os.getenv("HF_TOKEN")\n\
\n\
def restore():\n\
    try:\n\
        print(f"--- [SYNC] 启动恢复流程, 目标仓库: {repo_id} ---")\n\
        if not repo_id or not token: \n\
            print("--- [SYNC] 跳过恢复: 未配置 HF_DATASET 或 HF_TOKEN ---")\n\
            return False\n\
        files = api.list_repo_files(repo_id=repo_id, repo_type="dataset", token=token)\n\
        now = datetime.now()\n\
        for i in range(5):\n\
            day = (now - timedelta(days=i)).strftime("%Y-%m-%d")\n\
            name = f"backup_{day}.tar.gz"\n\
            if name in files:\n\
                print(f"--- [SYNC] 发现备份文件: {name}, 正在下载... ---")\n\
                path = hf_hub_download(repo_id=repo_id, filename=name, repo_type="dataset", token=token)\n\
                with tarfile.open(path, "r:gz") as tar: tar.extractall(path="/root/.openclaw/")\n\
                print(f"--- [SYNC] 恢复成功! 数据已覆盖至 /root/.openclaw/ ---")\n\
                return True\n\
        print("--- [SYNC] 未找到最近 5 天的备份包 ---")\n\
    except Exception as e: print(f"--- [SYNC] 恢复异常: {e} ---")\n\
\n\
def backup():\n\
    try:\n\
        day = datetime.now().strftime("%Y-%m-%d")\n\
        name = f"backup_{day}.tar.gz"\n\
        print(f"--- [SYNC] 正在执行全量备份: {name} ---")\n\
        with tarfile.open(name, "w:gz") as tar:\n\
            # 路径说明:sessions(网关历史), workspace(记忆文件), agents(配置), memory(旧版目录)\n\
            for target in ["sessions", "workspace", "agents", "memory", "openclaw.json"]:\n\
                full_path = f"/root/.openclaw/{target}"\n\
                if os.path.exists(full_path):\n\
                    tar.add(full_path, arcname=target)\n\
        api.upload_file(path_or_fileobj=name, path_in_repo=name, repo_id=repo_id, repo_type="dataset", token=token)\n\
        print(f"--- [SYNC] 备份上传成功! ---")\n\
    except Exception as e: print(f"--- [SYNC] 备份失败: {e} ---")\n\
\n\
if __name__ == "__main__":\n\
    if len(sys.argv) > 1 and sys.argv[1] == "backup": backup()\n\
    else: restore()' > /usr/local/bin/sync.py

# 7. 容器入口脚本 (start-openclaw)
# 负责恢复数据 -> 生成配置 -> 启动网关 -> 定时备份
RUN echo "#!/bin/bash\n\
set -e\n\
mkdir -p /root/.openclaw/sessions\n\
mkdir -p /root/.openclaw/workspace\n\
\n\
# 启动前执行数据恢复\n\
python3 /usr/local/bin/sync.py restore\n\
\n\
# 清理 API Base 地址\n\
CLEAN_BASE=\$(echo \"\$OPENAI_API_BASE\" | sed \"s|/chat/completions||g\" | sed \"s|/v1/|/v1|g\" | sed \"s|/v1\$|/v1|g\")\n\
\n\
# 生成 openclaw.json 配置文件\n\
cat > /root/.openclaw/openclaw.json <<EOF\n\
{\n\
  \"models\": {\n\
    \"providers\": {\n\
      \"siliconflow\": {\n\
        \"baseUrl\": \"\$CLEAN_BASE\",\n\
        \"apiKey\": \"\$OPENAI_API_KEY\",\n\
        \"api\": \"openai-completions\",\n\
        \"models\": [{ \"id\": \"\$MODEL\", \"name\": \"DeepSeek\", \"contextWindow\": 128000 }]\n\
      }\n\
    }\n\
  },\n\
  \"agents\": { \"defaults\": { \"model\": { \"primary\": \"siliconflow/\$MODEL\" } } },\n\
  \"gateway\": {\n\
    \"mode\": \"local\", \"bind\": \"lan\", \"port\": \$PORT,\n\
    \"trustedProxies\": [\"0.0.0.0/0\", \"10.0.0.0/8\", \"172.16.0.0/12\", \"192.168.0.0/16\"],\n\
    \"auth\": { \"mode\": \"token\", \"token\": \"\$OPENCLAW_GATEWAY_PASSWORD\" },\n\
    \"controlUi\": { \"allowInsecureAuth\": true }\n\
  }\n\
}\n\
EOF\n\
\n\
# 启动定时备份进程 (每 3 小时执行一次,增强安全性)\n\
(while true; do sleep 10800; python3 /usr/local/bin/sync.py backup; done) &\n\
\n\
# 启动 OpenClaw 网关\n\
openclaw doctor --fix\n\
exec openclaw gateway run --port \$PORT\n\
" > /usr/local/bin/start-openclaw && chmod +x /usr/local/bin/start-openclaw

EXPOSE 7860
CMD ["/usr/local/bin/start-openclaw"]
  1. 点击 "Commit" 提交。如果复制有无,也可以在这里直接下载Dockerfile文件:「Dockerfile」启动前自动恢复 和 运行中定时备份版,链接:https://pan.quark.cn/s/87986adedc05

部署验证

  • 等待状态变为 "Running"(约3-5分钟)

  • 点击 "App" 验证OpenClaw登录界面

**B. 查看部署日志与调试方法

部署过程中,日志是你唯一的“眼睛”。通过日志可以判断系统是在编译、恢复数据还是遭遇报错。

  • 查看位置:在 Space 页面顶部,点击 Logs 选项卡。

  • 关键日志点解析: Build 阶段日志: 出现大量 CC 或 node-gyp 字符:正常。这是在编译 C++ 插件,耗时较长(3-8 分钟)。 出现 Successfully built:镜像构建成功。 Runtime 阶段日志 (Container Logs): Restoring backup_...:说明同步脚本正在从你的 Dataset 拉取历史记录。 Browser control service ready:关键标志。看到这一行代表 Agent 的核心驱动已就绪。 listening on ws://0.0.0.0:7860:代表网关已上线,可以尝试打开页面。 unauthorized / pairing required:如果你没带 Token 访问,这里会刷屏报错,属于正常现象。

四、 数据持久化深度解析

上面Dockerfile中存在一些数据持久化机制,这里解释以下实现机制。

1. 如何避免Space 未被访问导致休眠?

由于Hugging Face会休眠48小时没人访问的space,因此建议使用提供计划任务的平台执行cron计划,周期性访问Hugging Face Space的主页。比如:https://www.cron-job.org/

  • 注册账户:访问上面的网址,注册自己的账户。

  • 创建计划任务:填写自己的space的主页,比如:https://name-aienzouzhe.hf.space。设定合适的时间,选择每天3点执行。建议添加实现每天两次。

2. Space 重启会导致哪些数据丢失?

Hugging Face Spaces 使用的是容器快照技术,每次重启都会回到“出厂设置”。

  • 丢弃的数据:在 /root/.openclaw/sessions 下产生的所有新对话记录、所有在 Web UI 里临时修改的设置、浏览器插件产生的 Cookie 和任务进度。

  • 原因:容器的根文件系统是非持久化的。

3. 哪些数据会持久存储?

  • 代码层:你写在 Dockerfile 里的代码和启动脚本。

  • 配置层:通过脚本硬编码生成的 openclaw.json。

  • 备份包:已经成功通过脚本上传到 Dataset 里的 .tar.gz 压缩包。

4. 为什么要采用“Dataset 备份恢复机制”?

我们没有采用传统的数据库或付费存储,而是选择了 Dataset 方案,主要为了解决以下问题:

  • 成本规避:Hugging Face 的 Persistent Storage(持久化硬盘)通常是按量计费且需要绑定信用卡。Dataset 存储是完全免费的。

  • 冷启动恢复:解决了 Space 闲置自动关机后“失忆”的问题。

  • 多端同步:你可以把这个 Dataset 挂载到任何地方,实现记录的跨平台迁移。

  • 安全性:通过 Dataset 的 Private 属性,确保只有你自己能访问这些敏感数据。