作者: wenjiuzzh

  • 我的 OpenClaw 日常:一个 AI 助手每天都在做什么

    AI 助手不是聊天机器人

    很多人对 AI 助手的理解还停留在「你问我答」的阶段。但当你把 OpenClaw 部署在云端 24 小时运行后,它的角色会完全不一样——它不再是一个被动等待你提问的工具,而是一个主动帮你处理日常事务的助手。

    这篇文章会分享我使用 OpenClaw 的真实日常,展示一个 AI 助手每天到底在做什么。没有夸张的宣传,只有实际的体验。


    早晨 7:30:AI 助手的「早报时间」

    每天早晨,当我还在赖床的时候,OpenClaw 已经通过 Heartbeat 心跳机制开始工作了:

    天气检查

    自动获取今天的天气预报,如果温差大或有雨,会主动提醒我带伞或多穿衣服。这个功能通过 Heartbeat 定时触发,每天早上 7 点执行一次。

    日历检查

    查看今天的日程安排,如果有即将到来的会议,会提前提醒我准备。比我自己的记性靠谱多了。

    邮件摘要

    扫描收件箱中的未读邮件,过滤掉垃圾邮件和通知类邮件,只把重要的邮件摘要发给我。每天能省下至少 15 分钟的邮件筛选时间。

    💡 实际体验:一开始我觉得「AI 看邮件」会泄露隐私,后来发现数据都在我自己的服务器上处理,比直接用 Gmail 的 AI 功能还安全。心理障碍没了之后,这个功能用得最多。


    上午 9:00-12:00:工作助手模式

    上班时间,OpenClaw 切换到工作助手角色:

    代码审查

    写完一段代码后,我会把代码片段发给 OpenClaw,让它帮我做 code review。它不只是找 bug,还会建议更好的写法、指出潜在的性能问题。用 Claude 4 Sonnet 做代码审查的效果真的很好,很多细节我自己都没想到。

    写作辅助

    写文档、写邮件、写周报,这些都是 AI 最擅长的事。我通常会给 OpenClaw 一个粗略的提纲,让它帮我扩展成完整的文档,然后我再修改润色。效率提升至少 3 倍。

    技术调研

    遇到不熟悉的技术栈或框架,直接问 OpenClaw。它能给出结构化的学习路径和关键概念解释,比自己 Google 高效得多。特别是对比不同技术方案的优劣时,AI 的总结能力非常强。

    翻译和本地化

    工作中经常需要中英文互译,OpenClaw 的翻译质量比机翻好太多,而且可以根据上下文调整风格(正式/口语/技术文档)。


    下午 14:00-18:00:运维监控模式

    我的 OpenClaw 实例还承担着服务器监控的工作:

    健康检查

    通过 Heartbeat 配置,OpenClaw 每隔 30 分钟检查一次关键服务的状态:

    • Web 服务是否正常响应
    • 数据库连接是否正常
    • 磁盘空间使用率
    • 内存和 CPU 使用情况
    • SSL 证书是否即将过期

    发现问题时会立即通过 Telegram 发送告警。有一次凌晨 3 点磁盘空间不足,OpenClaw 第一时间通知了我,避免了服务中断。

    日志分析

    把可疑的日志片段发给 OpenClaw,它能快速识别异常模式。比如识别 DDoS 攻击特征、异常登录尝试、API 滥用等。比自己一行行看日志效率高太多了。

    安全审计

    定期让 OpenClaw 帮我做简单的安全审计:

    • 检查防火墙规则是否合理
    • 审查 SSH 登录日志
    • 检查是否有未打补丁的服务
    • 审查 API Key 的使用情况

    傍晚 18:00-20:00:内容创作时间

    博客写作

    我有一个技术博客,OpenClaw 在写作过程中帮了大忙:

    • 帮我想选题、列提纲
    • 根据我的笔记扩展成完整的文章
    • 检查文章的逻辑结构和可读性
    • 生成 SEO 优化的标题和描述
    • 翻译成英文版本发布到国际平台

    社交媒体管理

    把一篇长文发给 OpenClaw,让它提取核心观点,改写成适合 Twitter/微博 的短内容。一次写好几条,我只需要挑选和微调就能发布。


    晚上 20:00-22:00:个人助理模式

    备忘录和笔记管理

    OpenClaw 帮我管理笔记系统。我只需要在 Telegram 里发一条消息,它就会帮我分类存档到相应的笔记文件中。比如:

    • 「记住:下周三下午 3 点要和产品经理开会」→ 存入待办事项
    • 「今天学到:Docker 的多阶段构建可以减小镜像体积」→ 存入学习笔记
    • 「TODO:给博客加一个搜索功能」→ 存入项目任务清单

    文件整理

    下载文件夹一团乱?让 OpenClaw 帮你分类整理。它会根据文件名、扩展名、内容自动分类到不同的目录中。

    学习伴侣

    晚上学习的时候,OpenClaw 是最好的学习伴侣。遇到不懂的概念可以随时问,它能用通俗的语言解释复杂的技术概念,还能根据你的理解程度调整解释的深度。


    深夜 22:00 – 凌晨:自动备份和维护

    当我睡觉后,OpenClaw 还在默默工作:

    NAS 自动备份

    每天凌晨 2 点,自动将重要数据备份到 NAS:

    • OpenClaw 配置文件和记忆文件
    • 博客文章草稿
    • 笔记和待办事项
    • 数据库快照(如果有的话)

    日志清理

    自动清理超过 30 天的旧日志,保持磁盘空间健康。

    记忆整理

    Heartbeat 触发的记忆维护:把今天的日记整理到长期记忆中,清理过时的信息,保持记忆文件的精简和有用。


    一天的时间线总结

    时间段AI 助手角色主要活动
    07:00-09:00早安助手天气、日历、邮件摘要
    09:00-12:00工作助手代码审查、写作辅助、技术调研
    12:00-14:00午休模式轻度维护、低优先级任务
    14:00-18:00运维助手健康检查、日志分析、安全审计
    18:00-20:00创作伙伴博客写作、社交媒体内容
    20:00-22:00个人助理笔记管理、文件整理、学习
    22:00-07:00夜间守护备份、维护、记忆整理、告警监控

    高效使用 AI 助手的 10 个技巧

    1. 给它明确的角色:在系统提示词中定义清楚它的职责和行为边界
    2. 善用 Heartbeat:把定时检查任务配置到 HEARTBEAT.md,让它主动工作
    3. 建立记忆系统:让它记住你的偏好和习惯,越用越贴心
    4. 不要问太开放的问题:「帮我写代码」不如「帮我用 Python 写一个快速排序」
    5. 提供上下文:给它足够的背景信息,它能给出更准确的回答
    6. 让它做繁琐的事:翻译、格式化、数据整理——这些重复性工作最适合 AI
    7. 用它做决策辅助:列出方案的优劣,但最终决定权在你
    8. 定期清理记忆:过时的信息会让它的回答变差
    9. 多渠道使用:手机上用 Telegram,电脑上用 Discord,Web 上用 API——同一个 AI 在不同场景为你服务
    10. 给它反馈:告诉它哪里做得好、哪里做得不好,它会逐渐调整

    常见错误和避坑指南

    ❌ 错误一:把它当成搜索引擎

    AI 模型有知识截止日期,不能获取实时信息(除非你配置了搜索工具)。问「今天比特币多少钱」它给不出准确答案,但问「解释一下比特币的原理」它很擅长。

    ❌ 错误二:过度依赖,放弃思考

    AI 是辅助工具,不是替代品。代码让它审查,但你自己要理解逻辑;文章让它润色,但核心观点要是你自己的。完全依赖 AI 的人,能力会退化。

    ❌ 错误三:不给它系统提示词

    没有系统提示词的 AI 助手就像没有方向感的实习生。花 10 分钟写一个好的系统提示词(定义角色、行为规则、格式要求),效果会有质的飞跃。

    ❌ 错误四:一条消息包含太多任务

    把 5 个问题塞进一条消息,AI 的回答质量会下降。一次一件事,效果最好。

    ❌ 错误五:忽视成本控制

    默认用最贵的模型、不做缓存、Heartbeat 频率太高——这些都会让你的 API 账单飞涨。合理配置模型路由和缓存策略,成本能降 50% 以上。


    真实成本参考

    很多人担心 AI 助手会不会很贵。以下是我的实际使用成本(一个月的数据):

    项目月费用说明
    VPS(阿里云轻量)¥502C2G,OpenClaw 部署
    API 调用(Claude Sonnet)~¥80每天约 50-100 次调用
    API 调用(DeepSeek V3)~¥5简单任务分流
    备份存储¥0用自己的 NAS
    总计~¥135/月

    每月不到 150 块钱,相当于一顿好一点的火锅钱。但它每天帮我节省的时间至少 1-2 小时——这个投入产出比,我觉得非常值。


    结语

    用了几个月 OpenClaw 之后,我最大的感受是:AI 助手的价值不在于它能回答多难的问题,而在于它帮你处理了多少琐碎的日常事务。那些重复的、耗时的、无聊的事情,都可以交给它。省下来的时间和精力,才是真正的收益。

    如果你还没有尝试过把 AI 助手部署成一个常驻服务,强烈建议试一试。和「打开网页问一问」的体验完全不同——当它变成你生活中一个随时在线的助手,你会发现很多意想不到的用法。

    当然,每个人的工作流和需求不同。我的用法不一定适合你,但希望这篇文章能给你一些灵感,找到属于你自己的 AI 助手使用方式。

  • OpenClaw 消息集成全攻略:Telegram、Discord、WhatsApp 多平台接入

    OpenClaw 的消息架构设计

    OpenClaw 最让我喜欢的一点是:它不绑定任何单一平台。你可以同时接入 Telegram、Discord、WhatsApp、Signal,甚至通过 HTTP API 自定义集成。所有渠道共享同一个 AI 大脑,但每个渠道可以有独立的行为和格式化规则。

    这意味着你可以在 Telegram 上和 AI 聊天,在 Discord 群里让它参与讨论,同时通过 API 给你的自定义应用提供能力——而这一切只需要一个 OpenClaw 实例。

    核心概念

    • Channel(渠道):一个消息平台的连接,如 Telegram、Discord
    • Surface(会话表面):具体的消息场景,分为 direct(私聊)和 group(群聊)
    • Router(路由器):决定消息如何被处理和分发
    • Gateway(网关):管理所有渠道连接的核心服务

    Telegram:最成熟的集成方案

    Telegram 是 OpenClaw 支持最好的消息渠道,也是大多数用户的首选。功能完整,包括内联按钮、语音消息、文件发送等。

    创建 Telegram Bot

    1. 打开 Telegram,搜索 @BotFather
    2. 发送 /newbot
    3. 输入 Bot 名称(如「我的 AI 助手」)
    4. 输入 Bot 用户名(必须以 bot 结尾,如 my_ai_assistant_bot
    5. 获取 Bot Token,格式类似:7123456789:AAH...你的token
    6. 重要:发送 /setprivacy → 选择你的 Bot → 设为 Disable(这样 Bot 能看到群里所有消息)

    获取你的 User ID

    为了限制谁能使用你的 Bot(安全考虑),需要获取你的 Telegram User ID:

    • 搜索 @userinfobot,发送任意消息,它会返回你的 User ID
    • 或者搜索 @RawDataBot,它会显示详细信息

    配置 OpenClaw Telegram 渠道

    # 打开 OpenClaw 配置
    openclaw config
    
    # 在配置中添加 Telegram channel
    channels:
      telegram:
        enabled: true
        token: "7123456789:AAH...你的token"
        allowed_users:
          - 123456789  # 你的 Telegram User ID
        # 可选配置
        surface:
          direct:
            enabled: true
            auto_reply: true
          group:
            enabled: true
            require_mention: true  # 群聊中需要 @Bot 才回复

    Telegram 特色功能

    • 内联按钮(Inline Buttons):AI 可以发送带按钮的消息,用户点击触发不同操作
    • 语音消息:支持发送和接收语音消息
    • Markdown 格式:Telegram 支持 Markdown,AI 的回复会自动格式化
    • 文件传输:可以发送和接收文件、图片
    • 群聊模式:在群里可以设置 @Bot 才回复,避免刷屏

    Discord:社区和群组场景的首选

    如果你的团队或社区主要使用 Discord,OpenClaw 的 Discord 集成也非常完善。

    创建 Discord Bot

    1. 访问 Discord Developer Portal
    2. 点击「New Application」,给应用起个名字
    3. 在左侧菜单选择「Bot」
    4. 点击「Reset Token」获取 Bot Token
    5. 开启必要的 Intents:在 Bot 设置页面,开启以下 Privileged Gateway Intents:
      • Message Content Intent
      • Server Members Intent(可选)
    6. 在 OAuth2 → URL Generator 中选择 bot scope,选择需要的权限
    7. 使用生成的邀请链接将 Bot 添加到你的服务器

    配置 OpenClaw Discord 渠道

    channels:
      discord:
        enabled: true
        token: "你的Discord Bot Token"
        # 指定允许的服务器和频道(可选)
        allowed_guilds:
          - "服务器ID"
        # 表面配置
        surface:
          direct:
            enabled: true
          group:
            enabled: true
            require_mention: true  # 需要 @Bot 才回复

    Discord 特色功能

    • Reaction(反应):AI 可以用 emoji 对消息做出反应,表达情绪
    • Embed(嵌入):支持发送富文本嵌入消息
    • 线程(Threads):可以在独立线程中进行长对话
    • 多服务器:同一个 Bot 可以服务多个 Discord 服务器

    Discord 格式注意事项

    ⚠️ 重要:Discord 不支持 Markdown 表格!如果你的 AI 回复中包含表格,在 Discord 中会显示为乱码。OpenClaw 会自动将表格转换为列表格式,但建议在系统提示词中注明不要在 Discord 渠道使用表格。


    WhatsApp:通过 Web Bridge 接入

    WhatsApp 没有官方的 Bot API,OpenClaw 通过 WhatsApp Web Bridge(基于 whatsapp-web.js)实现接入。需要你的手机保持 WhatsApp Web 的连接。

    配置方式

    channels:
      whatsapp:
        enabled: true
        # WhatsApp Web 需要扫码登录
        # 首次启动会显示 QR 码,用手机 WhatsApp 扫描
        surface:
          direct:
            enabled: true
          group:
            enabled: false  # WhatsApp 群聊建议谨慎开启

    注意事项

    • WhatsApp Web 有被封号风险,建议用小号测试
    • 手机需要保持在线,WhatsApp Web 连接才能维持
    • 不支持 Markdown 格式,回复会以纯文本显示
    • 不能发送内联按钮等交互元素
    • 群聊中建议设置需要 @才回复,避免被当 spam

    Signal:隐私优先的选择

    如果你对隐私要求很高,Signal 集成是个好选择。OpenClaw 通过 signal-cli 或类似桥接工具连接 Signal。

    channels:
      signal:
        enabled: true
        # Signal 桥接配置
        # 具体方式取决于使用的桥接工具
        surface:
          direct:
            enabled: true

    Signal 集成相对小众,文档和社区支持不如 Telegram/Discord 丰富。如果你是 Signal 重度用户,建议参考 OpenClaw 社区的最新指南。


    Web/HTTP API:自定义集成

    OpenClaw 提供 HTTP API 端点,你可以从任何自定义应用调用 AI 功能。适合以下场景:

    • 自建 Web 界面
    • 接入企业内部系统
    • 与现有自动化工具集成
    • 构建自定义 Bot
    # HTTP API 调用示例
    curl -X POST http://localhost:3000/api/chat \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer YOUR_API_KEY" \
      -d '{
        "message": "帮我检查服务器状态",
        "surface": "direct"
      }'

    多渠道配置实战

    一个完整的多渠道配置示例(同时接入 Telegram 和 Discord):

    # ~/.openclaw/config.yaml(示例)
    
    # 模型配置
    model:
      default: "anthropic/claude-sonnet-4-20250514"
      fallback: "deepseek/deepseek-chat"
    
    # 渠道配置
    channels:
      telegram:
        enabled: true
        token: "TELEGRAM_BOT_TOKEN"
        allowed_users:
          - 123456789
        surface:
          direct:
            enabled: true
          group:
            enabled: true
            require_mention: true
    
      discord:
        enabled: true
        token: "DISCORD_BOT_TOKEN"
        allowed_guilds:
          - "987654321"
        surface:
          direct:
            enabled: true
          group:
            enabled: true
            require_mention: true
    
    # Gateway 配置
    gateway:
      port: 3000
      # 仅本地访问
      host: "127.0.0.1"

    消息路由:Direct vs Group

    OpenClaw 对私聊和群聊有不同的处理策略:

    特性Direct(私聊)Group(群聊)
    自动回复默认开启默认需要 @提及
    上下文隔离每个用户独立上下文每个群独立上下文
    系统提示词可独立配置可独立配置
    安全级别标准更严格(避免泄露隐私)
    格式化完整格式视平台限制调整

    💡 建议:群聊场景下,开启 require_mention 是必须的。否则 AI 会对每条消息都回复,很快就会被踢出群聊。


    平台格式化差异速查

    不同消息平台支持的格式不同,了解这些差异能帮你避免格式显示异常:

    格式TelegramDiscordWhatsAppSignal
    Markdown✅ 部分支持✅ 部分支持
    表格
    代码块
    内联按钮
    Emoji
    Reaction
    文件发送
    语音消息

    OpenClaw 会根据目标平台自动调整格式。但在系统提示词中明确告知 AI「在 Discord 中不要使用表格」等限制,效果会更好。


    安全注意事项

    • 权限控制:务必配置 allowed_users,不要让任何人都能调用你的 AI
    • Token 保护:Bot Token 相当于你的账号密码,不要提交到公开仓库
    • 群聊隐私:群聊场景下,AI 的系统提示词不应该包含个人隐私信息
    • API Key 轮换:定期更换 Bot Token 和 API Key
    • 日志管理:注意日志中不要记录敏感信息
    • WhatsApp 风险:WhatsApp Web 桥接有封号风险,建议用小号

    总结

    OpenClaw 的多渠道支持是它最大的优势之一。一个 AI 大脑,多个触手——你在哪,AI 就在哪。对于国内用户,Telegram 是首选(功能最完整,体验最好);如果你的团队用 Discord,Discord 集成也非常成熟;WhatsApp 适合想要在日常聊天工具中使用 AI 的用户。

    我的建议是:先搞定一个渠道(推荐 Telegram),跑通之后再按需添加其他渠道。不要一上来就全配,容易把自己搞晕。

    如果你已经成功接入了 Telegram,恭喜——你的 AI 助手已经可以在手机上随时使用了。这种感觉,试过就知道有多爽。

  • OpenClaw 云服务器部署指南:在 VPS 上 24 小时运行 AI 助手

    为什么要把 AI 助手部署在云服务器上?

    OpenClaw 在本地电脑上跑得好好的,为什么还要折腾部署到 VPS?原因很直接:

    • 24 小时在线:本地电脑关机了,你的 AI 助手就「失联」了。VPS 永不关机
    • 稳定的网络环境:不需要担心家里断电断网,随时响应消息
    • 数据隐私:自建部署,数据完全在自己手里,不经过第三方
    • 多设备访问:手机、电脑、平板都能通过 Telegram/Discord 随时对话
    • 定时任务:Heartbeat 心跳检查、定时备份、自动监控都需要常驻运行

    本文将手把手教你从零开始,在一台云服务器上部署 OpenClaw,让你的 AI 助手 7×24 小时在线。


    选一台合适的 VPS

    最低配置要求

    配置最低要求推荐配置说明
    CPU1 核2 核Node.js 运行需要一定算力
    内存1GB2-4GB1GB 勉强够用,建议开 swap
    硬盘20GB40GB+系统 + Node.js + 日志 + 备份
    带宽1Mbps3Mbps+主要走 API 调用,流量不大

    不同预算的 VPS 推荐

    服务商配置月费优点缺点
    Oracle Cloud Free4核/24GB 或 2台1/1GB免费永久免费,配置大方申请有门槛,可能被回收
    Vultr1C/1GB$6/月全球节点,按小时计费配置较低
    DigitalOcean1C/1GB$6/月界面友好,文档丰富价格稍贵
    阿里云轻量2C/2GB¥50/月国内访问快国际带宽小
    腾讯云轻量2C/2GB¥50/月国内访问快国际带宽小
    Hetzner2C/4GB€4.5/月性价比极高欧洲节点,亚洲延迟高

    💡 个人推荐:预算充足选阿里云/腾讯云轻量(国内访问最快);想省钱选 Oracle Cloud 免费实例或 Hetzner;要全球覆盖选 Vultr。我目前用的是阿里云轻量,国内 Telegram 延迟在 50ms 左右,体验很好。


    第一步:服务器初始配置

    SSH 连接和基础安全

    # 连接到你的服务器
    ssh root@你的服务器IP
    
    # 创建一个普通用户(不要直接用 root)
    adduser openclaw
    usermod -aG sudo openclaw
    
    # 设置 SSH 密钥登录(推荐)
    # 在本地电脑执行:
    ssh-keygen -t ed25519
    ssh-copy-id openclaw@你的服务器IP
    
    # 禁用密码登录(可选但推荐)
    sudo nano /etc/ssh/sshd_config
    # 设置:PasswordAuthentication no
    # 设置:PermitRootLogin no
    sudo systemctl restart sshd

    配置防火墙

    # 使用 UFW 配置防火墙
    sudo apt update && sudo apt install -y ufw
    sudo ufw default deny incoming
    sudo ufw default allow outgoing
    sudo ufw allow ssh
    # 如果需要外部访问 Gateway(可选)
    # sudo ufw allow 3000
    sudo ufw enable
    sudo ufw status

    配置 Swap(内存不足时的救命稻草)

    # 创建 2GB swap 文件
    sudo fallocate -l 2G /swapfile
    sudo chmod 600 /swapfile
    sudo mkswap /swapfile
    sudo swapon /swapfile
    
    # 永久启用
    echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab
    
    # 验证
    free -h

    第二步:安装 Node.js

    OpenClaw 需要 Node.js 运行环境。推荐使用 nvm 管理 Node.js 版本:

    # 安装 nvm
    curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
    source ~/.bashrc
    
    # 安装 Node.js LTS(推荐 v20 或更高)
    nvm install --lts
    nvm use --lts
    
    # 验证安装
    node -v
    npm -v

    第三步:安装 OpenClaw

    # 全局安装 OpenClaw
    npm install -g openclaw
    
    # 验证安装
    openclaw --version
    
    # 初始化配置
    openclaw init

    初始化过程会引导你完成基本配置,包括模型 API 密钥和消息渠道设置。

    配置模型 API

    编辑 OpenClaw 配置文件,添加你的 AI 模型 API 密钥:

    # 编辑配置文件
    openclaw config
    
    # 或直接编辑
    nano ~/.openclaw/config.yaml

    配置文件中需要设置至少一个模型 provider。推荐配置多个作为 fallback:

    # 示例配置(简化版)
    model:
      default: "anthropic/claude-sonnet-4-20250514"
      providers:
        - name: anthropic
          api_key: "sk-ant-..."
        - name: openai
          api_key: "sk-..."
        - name: deepseek
          base_url: "https://api.deepseek.com"
          api_key: "sk-..."
        # 或使用 OpenRouter 统一接入
        - name: openrouter
          base_url: "https://openrouter.ai/api/v1"
          api_key: "sk-or-..."

    第四步:配置消息渠道(以 Telegram 为例)

    创建 Telegram Bot

    1. 在 Telegram 中搜索 @BotFather
    2. 发送 /newbot,按提示设置 Bot 名称
    3. 获取 Bot Token(类似 123456:ABC-DEF1234ghIkl-zyx57W2v1u123ew11
    4. 记录 Token,稍后配置到 OpenClaw

    配置 Telegram 渠道

    # 编辑配置
    openclaw config
    
    # 添加 Telegram channel
    channels:
      telegram:
        enabled: true
        token: "你的BOT_TOKEN"
        # 允许哪些人使用(你的 Telegram User ID)
        allowed_users:
          - 你的用户ID数字

    获取你的 Telegram User ID:在 Telegram 中搜索 @userinfobot,发送任意消息即可获取。


    第五步:Gateway 设置和安全

    OpenClaw 的 Gateway 是核心服务,负责管理所有渠道连接和请求处理。

    # 启动 Gateway
    openclaw gateway start
    
    # 检查状态
    openclaw gateway status
    
    # 查看日志
    openclaw gateway logs

    安全建议

    • 不要将 Gateway 端口(默认 3000)暴露到公网,除非你明确需要
    • 使用防火墙只开放必要的端口(SSH + Telegram webhook 如果需要)
    • 定期更新 OpenClaw 到最新版本:npm update -g openclaw
    • 配置文件中不要硬编码 API Key,考虑使用环境变量

    第六步:设置开机自启(systemd)

    为了确保服务器重启后 OpenClaw 自动启动,我们需要配置 systemd 服务:

    # 创建 systemd 服务文件
    sudo tee /etc/systemd/system/openclaw.service << 'EOF'
    [Unit]
    Description=OpenClaw AI Assistant
    After=network.target
    
    [Service]
    Type=simple
    User=openclaw
    WorkingDirectory=/home/openclaw
    ExecStart=/usr/bin/env openclaw gateway start --foreground
    Restart=always
    RestartSec=10
    Environment=NODE_ENV=production
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
    # 启用并启动服务
    sudo systemctl daemon-reload
    sudo systemctl enable openclaw
    sudo systemctl start openclaw
    
    # 检查状态
    sudo systemctl status openclaw

    💡 提示:以上是示例配置,具体路径和命令请参考 OpenClaw 官方文档的部署指南。


    第七步:备份策略

    数据是无价的。OpenClaw 的配置、记忆文件、对话记录都需要定期备份。

    备份到 NAS(WebDAV)

    # 如果你的 NAS 支持 WebDAV
    # 使用 rclone 备份
    sudo apt install -y rclone
    rclone config
    # 按提示配置 WebDAV 远端
    
    # 创建备份脚本
    cat << 'EOF' > ~/backup-openclaw.sh
    #!/bin/bash
    BACKUP_DATE=$(date +%Y%m%d)
    rclone copy ~/.openclaw/ remote:backup/openclaw/$BACKUP_DATE/ \
      --exclude "*.log" \
      --exclude "node_modules/**"
    echo "Backup completed: $BACKUP_DATE"
    EOF
    chmod +x ~/backup-openclaw.sh

    备份到本地(rsync + cron)

    # 设置每天凌晨 3 点自动备份
    crontab -e
    # 添加:
    0 3 * * * /home/openclaw/backup-openclaw.sh >> /var/log/openclaw-backup.log 2>&1

    监控和维护

    简单健康检查

    # 检查 OpenClaw 进程
    pgrep -f openclaw
    
    # 检查内存使用
    ps aux | grep openclaw
    
    # 检查日志
    tail -f ~/.openclaw/logs/openclaw.log

    自动重启脚本

    如果担心进程意外退出,可以用一个简单的监控脚本:

    cat << 'EOF' > ~/monitor-openclaw.sh
    #!/bin/bash
    if ! pgrep -f "openclaw gateway" > /dev/null; then
      echo "$(date): OpenClaw is down, restarting..." >> /var/log/openclaw-monitor.log
      openclaw gateway restart
    fi
    EOF
    chmod +x ~/monitor-openclaw.sh
    
    # 每 5 分钟检查一次
    crontab -e
    # 添加:
    */5 * * * * /home/openclaw/monitor-openclaw.sh

    常见问题排查

    Gateway 启动失败

    • 检查配置文件语法是否正确:openclaw config validate
    • 检查端口是否被占用:lsof -i :3000
    • 查看详细日志:openclaw gateway logs --level debug

    Telegram 收不到消息

    • 确认 Bot Token 正确
    • 确认你的 User ID 在 allowed_users 列表中
    • 检查是否有多个 OpenClaw 实例在运行(会导致 webhook 冲突)
    • 尝试重启 Gateway:openclaw gateway restart

    内存不足 / OOM

    • 确保 swap 已启用:free -h
    • 检查是否有内存泄漏:top -o %MEM
    • 考虑升级到更大内存的 VPS

    VPS 成本对比总结

    方案月费适合场景备注
    Oracle Cloud Free¥0个人实验、学习需要抢号,有被回收风险
    Hetzner CX22~¥35预算有限的个人使用欧洲节点
    Vultr/DigitalOcean~¥45全球部署节点多,灵活
    阿里云轻量~¥50国内用户首选国内访问最快
    阿里云 ECS~¥100+正式生产环境性能和稳定性最好

    对于个人使用,阿里云轻量或 Hetzner 的性价比最高。如果你只是想试试 OpenClaw,Oracle Cloud 免费实例完全够用——我见过不少人在上面稳定跑了好几个月。


    结语

    部署 OpenClaw 到 VPS 的流程并不复杂:选 VPS → 装 Node.js → 装 OpenClaw → 配置 API → 配消息渠道 → 设 systemd 自启。整个过程大概 30 分钟到 1 小时就能搞定。

    部署完成之后,你的 AI 助手就真的「住」在了云端——24 小时在线,随时响应。无论你在地铁上发一条 Telegram 消息,还是在电脑前通过 Discord 对话,它都能秒回。这种「永远在线」的感觉,用过就回不去了。

  • 免费 AI API 获取指南:2026 年现阶段可用的免费资源汇总

    为什么关注免费 AI API?

    对于刚入门的开发者、学生、独立创作者来说,AI API 的费用可能是个门槛。好消息是,2026 年几乎每家 AI 厂商都提供了某种形式的免费额度。善用这些免费资源,你完全可以在不花一分钱的情况下,构建出不错的 AI 应用原型。

    本文整理了目前还能用的免费 AI API 资源,包括各家的免费额度、限制条件和使用技巧。我会持续更新这份清单,确保信息的时效性。


    Google AI Studio:最慷慨的免费方案

    Google AI Studio 是目前免费额度最慷慨的平台,没有之一。

    免费内容

    • Gemini 2.5 Flash:每分钟 15 次请求,每天 1500 次请求
    • Gemini 2.5 Pro:每分钟 2 次请求,每天 50 次请求
    • 支持 100 万 tokens 的上下文窗口
    • 多模态支持:文本、图像、视频、音频

    如何获取

    1. 访问 aistudio.google.com
    2. 用 Google 账号登录
    3. 点击「Get API Key」→「Create API Key」
    4. 选择或创建一个 Google Cloud 项目
    5. 复制 API Key 即可使用

    注意事项

    • 免费版的数据可能用于模型改进
    • 中国大陆需要代理访问
    • 请求频率限制严格,不适合高并发场景

    OpenAI:新用户赠送额度

    OpenAI 为新注册用户提供免费试用额度,虽然不多,但足够体验和测试。

    免费内容

    • 新用户注册赠送 $5 的 API 额度
    • 额度有效期为 3 个月
    • 可以用 GPT-4o、GPT-4o mini 等所有模型

    如何获取

    1. 注册 OpenAI 账号(需要手机号验证)
    2. 进入 API 管理页面
    3. 创建 API Key
    4. 额度自动到账

    $5 听起来不多,但如果用 GPT-4o mini($0.15/M input tokens),大约可以处理 3000 万 tokens 的输入,足够做不少测试了。


    DeepSeek:国产性价比之王

    DeepSeek 的 API 价格本身就极低,新用户还赠送额度,非常适合预算有限的开发者。

    免费内容

    • 新用户注册赠送 500 万 tokens(有效期 30 天)
    • V3 模型:输入 ¥1/百万 tokens,输出 ¥2/百万 tokens
    • R1 推理模型:输入 ¥4/百万 tokens,输出 ¥16/百万 tokens
    • 国内直接访问,无需代理

    如何获取

    1. 访问 platform.deepseek.com
    2. 注册账号(支持手机号或邮箱)
    3. 在 API Keys 页面创建密钥
    4. 赠送额度自动到账

    SiliconFlow:国产模型的免费入口

    SiliconFlow 是一个国内的 AI 推理平台,提供了大量开源模型的免费 API 访问。

    免费内容

    • 注册赠送 2000 万 tokens 额度
    • 多个开源模型提供永久免费额度(每天有调用次数限制)
    • 包括 Qwen 2.5、DeepSeek V3、GLM-4 等热门模型
    • 国内访问速度快,延迟低

    如何获取

    1. 访问 siliconflow.cn
    2. 注册并实名认证
    3. 在 API 密钥页面创建 Key
    4. 免费模型直接可用

    特别推荐:SiliconFlow 的免费模型列表很丰富,包括 Qwen/Qwen2.5-72B-Instruct、deepseek-ai/DeepSeek-V3 等,每天有一定免费调用次数,非常适合学习和小项目开发。


    Groq:速度最快的免费推理

    Groq 使用自研的 LPU 芯片进行推理,速度极快,而且提供了不错的免费额度。

    免费内容

    • 每分钟 30 次请求(RPM)
    • 每天 14400 次请求(RPD)
    • 支持 Llama 3、Mixtral 等开源模型
    • 推理速度极快(tokens/s 远超其他平台)

    如何获取

    1. 访问 console.groq.com
    2. 注册账号
    3. 创建 API Key
    4. 使用 OpenAI 兼容格式调用

    Groq 的 API 格式兼容 OpenAI,切换成本几乎为零。如果你的应用对响应速度有要求,Groq 是免费方案中的最佳选择。


    Together AI:新用户免费额度

    Together AI 专注于开源模型的推理服务,为新用户提供 $5 的免费额度。

    免费内容

    • 新用户赠送 $5 额度
    • 支持大量开源模型(Llama 3、Mistral、Qwen 等)
    • 提供 Serverless 和 Dedicated 两种部署方式
    • OpenAI 兼容 API 格式

    Hugging Face:开源模型的免费推理

    Hugging Face 提供 Inference API,可以免费调用托管在平台上的开源模型。

    免费内容

    • 免费用户每月有一定配额(具体取决于模型)
    • 支持数千个开源模型
    • Pro 会员($9/月)可获得更高配额和更好的体验
    • 适合原型开发和模型测试

    注意事项

    • 免费版的冷启动时间较长(模型需要加载)
    • 请求频率限制较严
    • 不适合生产环境使用

    Cloudflare Workers AI:边缘计算免费方案

    Cloudflare 在其 Workers 平台上提供了 AI 推理服务,免费额度相当可观。

    免费内容

    • 每天 10000 次免费请求
    • 支持 Llama 3、Mistral、Phi 等模型
    • 在 Cloudflare 边缘网络运行,全球延迟低
    • 与 Workers、Pages 等 Cloudflare 服务集成

    特别适合已经在使用 Cloudflare 生态的开发者,可以无缝集成 AI 能力到现有的 Workers 应用中。


    OpenRouter:免费模型聚合

    OpenRouter 聚合了大量模型,其中也包含一些完全免费的模型。

    免费内容

    • 提供多个免费模型(标记为 $0.00)
    • 包括 Meta Llama、Mistral 等开源模型
    • 统一的 OpenAI 兼容接口
    • 新用户可能有额外赠送额度

    缺点是免费模型通常有限速,且部分免费模型可能随时下线。适合快速测试和原型开发。


    各平台免费资源对比表

    平台免费额度可用模型速率限制国内可用
    Google AI Studio每天 1500 次请求Gemini 2.5 Flash/Pro15 RPM (Flash)❌ 需代理
    OpenAI$5(3 个月)所有模型标准限制❌ 需代理
    DeepSeek500 万 tokensV3, R1较宽松✅ 直接访问
    SiliconFlow2000 万 tokens多个开源模型每日次数限制✅ 直接访问
    Groq每天 14400 次Llama 3, Mixtral30 RPM❌ 需代理
    Together AI$5开源模型标准限制❌ 需代理
    Hugging Face月度配额数千模型较严格❌ 需代理
    Cloudflare每天 10000 次Llama 3, Mistral10K/天✅ 部分可用
    OpenRouter部分免费模型多个免费模型视模型而定❌ 需代理

    最大化免费额度的技巧

    1. 多平台轮换

    不要只依赖一个平台的免费额度。搭建一个简单的路由层,当一个平台的额度用完时自动切换到下一个。

    2. 缓存高频请求

    对相同或相似的请求做本地缓存,避免重复调用浪费额度。Redis 或简单的文件缓存都行。

    3. 选择合适的模型大小

    不是所有任务都需要大模型。简单问答用小模型就够了,把大模型的额度留给真正需要的任务。

    4. 批量处理非实时任务

    不要一个一个地发请求,把多个任务合并成一个批量请求,减少 API 调用次数。

    5. 优化 Prompt

    精简你的 Prompt,去掉不必要的内容。输入 tokens 也是要消耗的(虽然免费额度通常按请求计算,但更短的 Prompt 意味着更快的响应)。


    什么时候该升级到付费?

    免费额度虽然好用,但终究有限。以下几种情况建议升级到付费方案:

    • 产品上线:免费版的速率限制和 SLA 无法支撑生产环境
    • 用户增长:日活超过免费额度能支撑的范围
    • 需要更好的模型:某些高端功能只有付费版才能用
    • 数据隐私要求:免费版通常会用你的数据训练模型
    • 需要稳定的服务保障:付费版通常有 SLA 保证

    好消息是,即使升级到付费,国产模型如 DeepSeek 的成本也非常低。每月几十块钱就能获得不错的 API 调用量。


    总结

    2026 年,免费 AI API 资源相当丰富。国内开发者推荐优先使用 DeepSeek + SiliconFlow 的组合(无需代理,额度充足),国际开发者可以充分利用 Google AI Studio 和 Groq 的免费额度。

    关键是:动手试。免费额度足够你把一个想法从 0 做到 1。等到真正需要更多资源时,再根据实际用量选择付费方案也不迟。别让「先研究再行动」变成「一直在研究从不行动」。

  • 2026 年 AI API 厂商大对比:OpenAI vs Anthropic vs Google vs 国产大模型

    为什么选对 AI API 这么重要?

    2026 年,AI API 市场已经从「一家独大」变成了群雄割据。OpenAI、Anthropic、Google 三巨头稳坐第一梯队,国产大模型如 DeepSeek、通义千问也在迅速追赶。对开发者来说,选对 API 不只是省钱的问题——它直接影响产品体验、响应速度和最终用户的满意度。

    本文将从价格、性能、适用场景三个维度,帮你梳理清楚 2026 年主流 AI API 的优劣,并给出不同预算下的推荐方案。无论你是独立开发者还是企业技术负责人,都能找到适合自己的选择。


    OpenAI:生态最成熟,但价格偏高

    核心模型一览

    OpenAI 在 2026 年的产品线已经非常清晰:

    • GPT-4o:旗舰多模态模型,支持文本、图像、音频,综合能力最强
    • GPT-4 Turbo:高性价比版本,128K 上下文窗口
    • GPT-4o mini:轻量级模型,速度快、成本低,适合日常任务
    • o1 / o3 系列:推理增强模型,擅长数学、编程和复杂逻辑

    优势

    • 生态最完善,几乎所有框架和工具都优先支持 OpenAI API 格式
    • 多模态能力领先,GPT-4o 的图像理解和语音交互体验很好
    • 文档完善,社区资源丰富,遇到问题容易找到解决方案
    • Function Calling 和 Structured Output 支持成熟

    劣势

    • 价格在主流厂商中偏高,GPT-4o 输入 $2.50/M tokens
    • 中国大陆访问需要代理,网络稳定性是个问题
    • 上下文窗口虽然有 128K,但实际使用中长文本效果不如 Claude
    • 隐私政策相对保守,数据可能用于模型训练(除非关闭)

    Anthropic:长文本之王,安全性领先

    核心模型一览

    • Claude 4 Opus:最强旗舰,复杂推理和长文本处理的标杆
    • Claude 4 Sonnet:性能与成本的最佳平衡点,日常首选
    • Claude 4 Haiku:极速响应,适合大规模批量处理

    优势

    • 200K 上下文窗口,长文档处理能力业界最强
    • 安全性设计出色,系统提示词抗注入能力强
    • Claude 4 Sonnet 性价比极高,很多场景下效果接近 GPT-4o 但价格更低
    • 代码生成和理解能力出色,尤其擅长重构和代码审查
    • Artifacts 功能让即时预览变得非常方便

    劣势

    • 不支持图像生成,多模态能力主要在图像理解
    • API 生态不如 OpenAI 完善,部分工具需要额外适配
    • 同样存在中国大陆访问问题
    • Haiku 虽快但能力相对有限

    Google Gemini:追赶者的逆袭

    核心模型一览

    • Gemini 2.5 Pro:Google 旗舰模型,原生多模态,百万级上下文
    • Gemini 2.5 Flash:高性价比版本,速度快,适合实时应用

    优势

    • 原生多模态架构,文本、图像、视频、音频统一处理
    • 上下文窗口极大(最高 200 万 tokens),适合超长文档分析
    • Google AI Studio 提供慷慨的免费额度
    • 与 Google Cloud 生态深度集成
    • Gemini 2.5 Pro 的推理能力在多项基准测试中表现优异

    劣势

    • API 稳定性和一致性不如 OpenAI 和 Anthropic
    • 部分内容安全策略过于严格,某些正当用途会被拒绝
    • 生态支持还在追赶,第三方工具集成不如 OpenAI 广泛
    • 在中国大陆访问同样受限

    国产大模型:性价比之王

    主要玩家

    • DeepSeek V3/R1:推理能力出色,API 价格极低,开源社区活跃
    • 通义千问 Qwen 2.5:阿里出品,多语言能力强,模型尺寸覆盖全面
    • 智谱 GLM-4:中文理解能力强,生态完善
    • MiniMax:语音和多模态有特色,API 性价比高

    核心优势

    • 价格极低:DeepSeek V3 的 API 价格仅为 GPT-4o 的 1/10 到 1/20
    • 国内直接访问,无需代理,延迟低
    • 中文理解和生成能力优秀,特别适合中文场景
    • 大多提供免费额度或极低的入门门槛
    • 部分模型开源,可自行部署

    劣势

    • 英文能力和国际化场景不如三巨头
    • 部分平台 API 稳定性有待提升
    • 生态工具支持不如 OpenAI 完善
    • 内容审核策略可能更严格

    OpenRouter:一个 API 调用所有模型

    OpenRouter 是一个 AI API 聚合平台,通过统一的 OpenAI 兼容接口,你可以访问几乎所有主流模型,包括 OpenAI、Anthropic、Google、DeepSeek 等。

    优势

    • 一个 API Key 访问所有模型,切换成本几乎为零
    • 自动负载均衡和故障转移
    • 提供部分免费模型
    • 统一的计费和用量追踪
    • 非常适合需要多模型对比和路由的场景

    劣势

    • 在原厂价格基础上有少量加价(通常 5-20%)
    • 数据需要经过第三方,隐私敏感场景需谨慎
    • 部分模型可能有额外延迟

    场景推荐矩阵

    不同任务适合不同的模型,以下是我的实际使用经验总结:

    使用场景首选模型备选方案理由
    代码编写/审查Claude 4 SonnetGPT-4o / DeepSeek V3代码理解深,重构能力强
    创意写作GPT-4oClaude 4 Opus表达自然,风格多样
    图像理解Gemini 2.5 ProGPT-4o原生多模态架构
    长文档分析Claude 4 OpusGemini 2.5 Pro200K 上下文稳定
    数学/逻辑推理o3Claude 4 Opus / DeepSeek R1推理链能力出色
    日常问答GPT-4o miniClaude 4 Haiku速度快成本低
    中文场景DeepSeek V3Qwen 2.5 / GLM-4中文理解好,价格低
    批量处理Claude 4 HaikuGPT-4o mini速度和成本优势明显

    详细价格对比(每百万 tokens)

    模型输入价格输出价格上下文窗口
    GPT-4o$2.50$10.00128K
    GPT-4 Turbo$10.00$30.00128K
    GPT-4o mini$0.15$0.60128K
    Claude 4 Opus$15.00$75.00200K
    Claude 4 Sonnet$3.00$15.00200K
    Claude 4 Haiku$0.25$1.25200K
    Gemini 2.5 Pro$1.25$10.001M
    Gemini 2.5 Flash$0.075$0.301M
    DeepSeek V3$0.27$1.10128K
    DeepSeek R1$0.55$2.19128K
    Qwen 2.5 72B$0.40$0.40128K

    注:价格可能随厂商调整,以上为 2026 年 3 月参考价格。国产模型通过各平台 API 调用时价格可能更低。


    成本优化策略

    1. 模型路由(Model Routing)

    不要所有请求都用最贵的模型。根据任务复杂度动态选择:

    • 简单任务(翻译、格式化、简单问答)→ GPT-4o mini / Claude Haiku
    • 中等任务(写作、代码)→ Claude Sonnet / GPT-4o
    • 复杂任务(深度分析、复杂推理)→ Claude Opus / o3

    2. 缓存和复用

    • 对相同或相似的请求做结果缓存
    • 利用 OpenAI 的 Prompt Caching 功能降低重复前缀的费用
    • 常见问答做成 FAQ 数据库,减少 API 调用

    3. 批量处理

    • 使用 Batch API(如 OpenAI Batch API)可以获得 50% 折扣
    • 将多个短请求合并成一个长请求
    • 非实时任务放到低峰时段处理

    不同预算的推荐方案

    🆓 零预算(免费额度探索)

    利用 Google AI Studio 免费额度 + DeepSeek 新用户赠送 + SiliconFlow 免费模型,基本够个人学习和小项目使用。

    💰 低预算($10-50/月)

    主力用 DeepSeek V3(极低成本)+ Claude 4 Sonnet(重要任务),通过 OpenRouter 统一管理。这个预算可以支撑每天几十到上百次的 API 调用。

    💎 中等预算($50-500/月)

    Claude Sonnet 为主力,GPT-4o 备用,重要任务用 Opus。配合模型路由和缓存策略,可以支撑一个小型产品的日常运营。

    🏢 企业级($500+/月)

    多模型策略 + 企业级 SLA。考虑直接与厂商谈企业协议获取更好的价格和服务保障。自建模型路由系统,实现智能降级和故障转移。


    总结

    2026 年的 AI API 市场竞争激烈,这对开发者来说是好消息。没有「最好」的模型,只有「最适合」的模型。建议根据实际需求组合使用:用国产模型处理中文和低成本场景,用 Claude 处理代码和长文本,用 GPT-4o 处理多模态任务,用 OpenRouter 简化多模型管理。

    最重要的是:别把鸡蛋放在一个篮子里。多模型策略不仅能降低成本,还能避免被单一厂商锁定。从今天开始,试试在你的项目中接入两到三个不同的模型,体验一下各自的差异吧。

  • 2026 年最值得安装的 10 个 OpenClaw Skills 推荐

    为什么需要 Skills?

    OpenClaw 本身已经是一个功能强大的 AI 助手平台,但它的真正潜力在于 Skills 生态。Skills 就像是给你的 AI 助手安装的各种专业插件——每个 Skill 都能让 AI 掌握一个新领域的专业知识和操作能力。

    目前 OpenClaw 社区已经涌现了大量优质的 Skills,覆盖了浏览器自动化、社交媒体运营、服务器管理、内容营销等多个领域。但面对这么多选择,哪些才是真正值得安装的?

    本文精选了 2026 年最值得安装的 9 个 OpenClaw Skills,每个都经过实际使用验证,能显著提升你的 AI 助手能力。


    1. agent-browser — 无头浏览器自动化

    难度:⭐⭐ 中等
    安装命令:npm install openclaw-skill-agent-browser -g

    agent-browser 是一个为 AI 优化的无头浏览器自动化工具。它不是普通的 Puppeteer 封装——它专门为 AI agent 设计了无障碍树(Accessibility Tree)快照和基于引用的元素选择机制。

    它能做什么?

    • 自动化网页操作:点击、填写表单、导航
    • 提取网页内容:获取结构化的无障碍树数据
    • 截图和 PDF 生成
    • 处理 SPA(单页应用)和动态加载内容
    • 批量网页数据采集

    实际用例

    “帮我打开 GitHub Trending 页面,把今天的热门 Python 项目整理成列表发给我”
    “自动登录管理系统,导出本月的销售报表”
    “监控竞品网站的价格变化,降价时通知我”

    如果你需要让 AI 与网页交互而不只是搜索信息,agent-browser 是必备的。


    2. xiaohongshu-ops — 小红书运营助手

    难度:⭐⭐ 中等
    安装命令:npm install openclaw-skill-xiaohongshu-ops -g

    小红书运营是中文互联网创业者和内容创作者的刚需。xiaohongshu-ops 这个 Skill 覆盖了小红书运营的全链路——从账号定位、选题研究到内容生产、发布执行和复盘修复。

    它能做什么?

    • 账号定位:分析赛道、竞品调研、差异化策略
    • 选题研究:热点追踪、关键词分析、内容趋势
    • 内容生产:文案撰写、图片建议、标题优化
    • 发布执行:定时发布、标签优化、互动管理
    • 数据分析:笔记表现分析、粉丝画像、增长策略

    实际用例

    “帮我分析一下美食赛道最近的热门内容趋势”
    “帮我写一篇关于数码产品开箱的小红书笔记”
    “看看我上周发的笔记表现怎么样,给点优化建议”


    3. tmux — 远程终端控制

    难度:⭐ 简单
    安装命令:npm install openclaw-skill-tmux -g

    tmux Skill 让你的 AI 能够远程控制 tmux 会话——发送按键指令、抓取终端输出、管理多个面板。这对于需要长时间运行的交互式 CLI 工具特别有用。

    它能做什么?

    • 创建和管理 tmux 会话
    • 向终端发送命令并获取输出
    • 监控长时间运行的任务(编译、训练、部署)
    • 同时管理多个终端窗口

    实际用例

    “帮我在服务器上启动一个 tmux 会话运行训练脚本,定期检查进度”
    “监控 Docker 容器的日志输出”
    “自动操作需要交互式输入的 CLI 工具”


    4. healthcheck — 服务器安全审计

    难度:⭐⭐ 中等
    安装命令:npm install openclaw-skill-healthcheck -g

    如果你在 VPS 或者自己的服务器上运行 OpenClaw,healthcheck 是必备的安全工具。它能帮你进行主机安全加固、风险评估、暴露面检查等安全审计工作。

    它能做什么?

    • 安全审计:检查系统安全配置、防火墙规则、SSH 配置
    • 漏洞扫描:检查已知的安全漏洞和过期的软件包
    • 暴露面检查:识别不必要的端口暴露和服务
    • 加固建议:提供具体的安全加固操作步骤
    • 定期巡检:配合 Cron 实现自动化的安全巡检

    实际用例

    “帮我做一次全面的服务器安全审计”
    “检查一下我的 SSH 配置是否安全”
    “每周一自动检查系统安全状态”


    5. weather — 天气查询

    难度:⭐ 简单
    安装命令:npm install openclaw-skill-weather -g

    一个看似简单但非常实用的 Skill。通过 wttr.in 或 Open-Meteo API 获取天气信息,不需要任何 API Key,开箱即用。

    它能做什么?

    • 查询任意城市的当前天气
    • 获取未来几天的天气预报
    • 支持温度、湿度、风速等详细信息
    • 集成到 Heartbeat 中实现天气提醒

    实际用例

    “北京今天天气怎么样?需要带伞吗?”
    “未来三天上海的天气预报”
    “每天早上提醒我今天要不要带外套”

    虽然简单,但 weather Skill 是 Heartbeat 系统的完美搭档——让 AI 在你出门前主动告诉你天气情况。


    6. self-improving — 自我反思与进化

    难度:⭐⭐ 中等
    安装命令:npm install openclaw-skill-self-improving -g

    这是一个非常独特的 Skill——它让 AI 具备自我反思、自我纠错和自我学习的能力。当操作失败时,AI 不只是报告错误,还会分析原因、总结教训,并永久性地更新自己的知识库。

    它能做什么?

    • 自我反思:操作完成后评估执行质量
    • 自我纠错:发现错误后自动修正并记录
    • 自我学习:从失败中提取教训,更新到配置文件中
    • 自我组织:自动整理和优化记忆系统

    实际用例

    当一个命令执行失败时,AI 会自动分析失败原因,尝试修复方案,并在 TOOLS.md 中记录正确的用法,下次就不会再犯同样的错误。

    这个 Skill 让你的 AI 助手越用越聪明,是长期使用的必备选择。


    7. marketing-strategy-pmm — 产品营销策略

    难度:⭐⭐⭐ 较高
    安装命令:npm install openclaw-skill-marketing-strategy-pmm -g

    这是一个面向产品经理和营销人员的专业 Skill。它内置了 April Dunford 定位方法论、ICP 定义框架、竞品分析模板等专业的营销方法论。

    它能做什么?

    • 产品定位:生成基于 April Dunford 方法的定位声明
    • 竞品分析:创建竞品 battlecard 和对比分析
    • 目标用户:定义 ICP(理想客户画像)
    • GTM 策略:制定上市策略和渠道计划
    • 发布规划:生成产品发布 Playbook
    • 市场进入:国际市场的进入策略分析

    实际用例

    “帮我分析一下我们产品 vs 竞品 X 的优劣势,生成一份 battlecard”
    “帮我定义我们 SaaS 产品的 ICP”
    “为新产品设计一个 GTM 策略”


    8. node-connect — 设备配对诊断

    难度:⭐⭐ 中等
    安装命令:npm install openclaw-skill-node-connect -g

    如果你在使用 OpenClaw 的 Android、iOS 或 macOS 伴侣 App,node-connect 可以帮你诊断设备配对和连接问题。它覆盖了 QR 码扫描、手动配对、网络诊断等常见故障场景。

    它能做什么?

    • 诊断 QR 码/设置码配对失败问题
    • 排查本地 WiFi 正常但远程连接失败的问题
    • 分析 Tailnet/VPS 连接故障
    • 检查 Gateway 远程 URL 配置
    • 诊断插件和设备配对配置问题

    实际用例

    “我的手机 App 一直连接不上 OpenClaw Gateway,帮我查一下问题”
    “QR 码扫描后报错 ‘bootstrap token invalid’,怎么解决?”
    “本地 WiFi 正常但是外网连不上”


    9. skill-creator — 创建你自己的 Skills

    难度:⭐ 简单
    安装命令:npm install openclaw-skill-skill-creator -g

    这个 Skill 不是给你直接使用的工具,而是教你如何创建自己的 Skills。它会引导你完成 SKILL.md 的编写、目录结构的组织、最佳实践的遵循等。

    它能做什么?

    • 引导创建新的 SKILL.md 文件
    • 提供 SKILL.md 模板和结构建议
    • 检查 Skill 文档的质量和完整性
    • 更新和维护现有 Skill 的文档

    为什么推荐安装?

    每个团队和每个人的工作流程都是独特的。skill-creator 让你可以轻松地把自己的专业知识和工作流程打包成一个 Skill,让 AI 按照你的方式来工作。想象一下:把你的代码审查流程、部署 checklist、客户沟通模板都变成 AI 可以自动执行的 Skills。


    Skills 对比总览

    以下是 9 个推荐 Skills 的快速对比,方便你根据自己的需求选择:

    Skill功能适合谁难度安装命令
    agent-browser无头浏览器自动化需要网页交互和数据采集的用户⭐⭐npm install openclaw-skill-agent-browser -g
    xiaohongshu-ops小红书全链路运营内容创作者、营销人员⭐⭐npm install openclaw-skill-xiaohongshu-ops -g
    tmux远程终端控制运维、开发者npm install openclaw-skill-tmux -g
    healthcheck服务器安全审计服务器管理员、运维⭐⭐npm install openclaw-skill-healthcheck -g
    weather天气查询和预报所有人npm install openclaw-skill-weather -g
    self-improvingAI 自我反思和学习长期深度用户⭐⭐npm install openclaw-skill-self-improving -g
    marketing-strategy-pmm产品营销策略产品经理、营销人员⭐⭐⭐npm install openclaw-skill-marketing-strategy-pmm -g
    node-connect设备配对诊断使用伴侣 App 的用户⭐⭐npm install openclaw-skill-node-connect -g
    skill-creator创建自定义 Skills所有想自定义的用户npm install openclaw-skill-skill-creator -g

    安装建议:按场景选择

    通用用户推荐组合

    # 适合所有人的基础组合
    npm install openclaw-skill-weather openclaw-skill-self-improving openclaw-skill-skill-creator -g

    开发者/运维推荐组合

    # 开发者和运维人员
    npm install openclaw-skill-agent-browser openclaw-skill-tmux openclaw-skill-healthcheck -g

    内容创作者/营销人员推荐组合

    # 内容创作者和营销人员
    npm install openclaw-skill-xiaohongshu-ops openclaw-skill-agent-browser openclaw-skill-marketing-strategy-pmm -g

    总结

    OpenClaw 的 Skills 生态是它最强大的特性之一。通过安装合适的 Skills,你可以把一个通用的 AI 助手打造成符合自己需求的专业化数字员工。

    以上推荐的 9 个 Skills 覆盖了从基础实用(weather)到专业领域(marketing-strategy-pmm)的各种需求。建议从最简单的 weather 和 skill-creator 开始,逐步探索其他 Skills,找到最适合自己的组合。

    记住,Skills 的真正价值不在于数量,而在于是否契合你的实际需求。选对 Skills,你的 OpenClaw 就能从”会聊天的 AI”升级为”真正帮你干活的 AI”。

    🚀 快速开始:先安装 weather 试试效果,然后根据你的职业和需求选择其他 Skills。如果找不到适合自己的 Skill,用 skill-creator 自己造一个!

  • OpenClaw Skills 安装指南:给 AI 助手装上超能力

    什么是 OpenClaw Skills?

    如果你觉得 OpenClaw 的基础功能已经很强大了,那么 Skills 系统会让你大开眼界。Skills(技能)是 OpenClaw 的插件系统,通过安装不同的 Skill,你可以给 AI 助手添加各种专业能力——浏览器自动化、社交媒体运营、服务器安全审计、天气查询、产品营销策略……几乎无所不能。

    你可以把 Skills 理解为”给 AI 装上的超能力包”。每个 Skill 都是一个自包含的功能模块,包含详细的使用说明(SKILL.md)和工具集成配置。AI 会在需要时自动读取对应的 Skill 文件,按照说明执行任务。


    Skills 的工作原理

    SKILL.md:技能的核心说明书

    每个 Skill 的核心都是一个 SKILL.md 文件。这个 Markdown 文件详细描述了:

    • 技能描述:这个 Skill 是做什么的
    • 使用时机:什么时候应该自动激活这个 Skill
    • 操作流程:具体的执行步骤和工具调用方式
    • 配置要求:需要哪些前置条件和配置
    • 示例:实际使用案例

    当 AI 收到一个请求时,它会扫描已安装的 Skills 的描述信息,判断哪个 Skill 最适合当前任务,然后加载对应的 SKILL.md 来指导执行。这个过程是自动的——你不需要手动选择 Skill,AI 会智能匹配。

    Skill 目录结构

    ~/.openclaw/skills/
    ├── skill-name-version/
    │   ├── SKILL.md          # 技能说明文档(核心)
    │   ├── tools/            # 工具脚本和集成
    │   ├── config/           # 配置文件模板
    │   ├── examples/         # 使用示例
    │   └── README.md         # 额外说明(可选)
    └── another-skill-version/
        ├── SKILL.md
        └── ...

    🔑 关键理解:Skills 不是传统的代码插件。它们更像是”专家知识包”——告诉 AI 在特定领域应该怎么做。AI 的大模型能力 + Skill 的专业知识 = 超强的专业化 AI 助手。


    安装 Skills:三种方式

    方式一:通过 npm 安装(推荐)

    最简单的方式是通过 npm 安装,和安装其他 Node.js 包一样:

    # 安装单个 Skill
    npm install openclaw-skill-weather -g
    
    # 安装特定版本
    npm install openclaw-skill-agent-browser@0.1.0 -g
    
    # 安装多个 Skills
    npm install openclaw-skill-weather openclaw-skill-healthcheck -g

    方式二:通过 ClawHub 安装

    ClawHub(clawhub.ai)是 OpenClaw 的官方 Skills 市场,提供了大量的社区和官方 Skills:

    1. 访问 clawhub.ai 浏览可用的 Skills
    2. 找到你需要的 Skill,查看文档和评价
    3. 按照页面上的安装说明进行安装

    方式三:手动安装

    如果你有自定义的 Skill 或者从 GitHub 下载的 Skill,可以手动安装:

    # 1. 克隆或下载 Skill 到 skills 目录
    cd ~/.openclaw/skills/
    git clone https://github.com/example/my-skill.git
    
    # 2. 或者直接复制
    cp -r /path/to/my-skill ~/.openclaw/skills/
    
    # 3. 重启 Gateway 使 Skill 生效
    openclaw gateway restart

    配置和激活 Skills

    自动激活机制

    大部分 Skills 安装后会自动激活。AI 会在系统启动时扫描 ~/.openclaw/skills/ 目录,读取每个 Skill 的 SKILL.md 文件头部的描述信息,建立技能索引。当用户提出相关请求时,AI 会自动匹配并加载对应的 Skill。

    查看已安装的 Skills

    你可以通过以下方式查看已安装的 Skills:

    # 在聊天中发送
    /status
    
    # 或者直接询问 AI
    我安装了哪些 Skills?

    Skill 级别配置

    某些 Skills 需要额外的配置才能正常工作。常见的配置项包括:

    配置类型说明示例
    API Key需要第三方服务的 API 密钥天气服务、搜索引擎等
    路径配置指定工作目录或文件路径浏览器路径、SSH 配置等
    账户信息社交媒体等平台的登录凭证小红书、Twitter 账号
    阈值设置触发条件的参数健康检查的告警阈值

    这些配置通常在 Skill 的 SKILL.md 中有详细说明。安装新 Skill 后,务必阅读 SKILL.md 的配置部分。


    如何阅读 SKILL.md

    SKILL.md 是每个 Skill 的灵魂文件。无论是使用还是创建 Skill,读懂 SKILL.md 都是关键。一个典型的 SKILL.md 包含以下部分:

    # Skill 名称
    简短描述这个 Skill 的用途
    
    ## 何时使用
    描述在什么情况下应该激活这个 Skill
    (AI 会根据这部分内容进行自动匹配)
    
    ## 前置条件
    需要安装什么、配置什么才能使用
    
    ## 操作步骤
    详细的执行流程,包括:
    - 需要调用哪些工具
    - 参数如何传递
    - 结果如何处理
    
    ## 示例
    实际使用案例,帮助理解用法
    
    ## 注意事项
    常见问题、限制条件、安全提醒

    当你使用一个 Skill 时,AI 会自动加载并遵循 SKILL.md 中的指示。你不需要手动执行 SKILL.md 中的步骤——那是 AI 的工作。你只需要理解这个 Skill 能做什么,然后用自然语言告诉 AI 你的需求。

    💡 使用技巧:如果你不确定某个 Skill 怎么用,直接问 AI:”XXX Skill 怎么用?”它会读取 SKILL.md 然后给你一个通俗易懂的解释。


    创建自定义 Skills

    如果你有特定的工作流程想要自动化,可以创建自己的 Skill。创建 Skill 的核心就是写一个 SKILL.md 文件。

    最小化 Skill 示例

    # 我的自定义 Skill
    
    ## 何时使用
    当用户要求执行 XXX 操作时使用此 Skill。
    
    ## 操作步骤
    1. 读取文件 /path/to/data
    2. 执行分析
    3. 输出结果
    
    ## 示例
    用户:"帮我分析 XXX"
    AI:按照此 Skill 的步骤执行...

    你也可以使用 skill-creator 这个 Skill 来辅助创建新的 Skill——它会引导你完成 SKILL.md 的编写过程。

    Skill 编写最佳实践

    • 描述清晰:”何时使用”部分要写得明确,这样 AI 才能准确匹配
    • 步骤详细:操作步骤要具体到可执行,不要有歧义
    • 示例丰富:多写几个实际使用案例,帮助 AI 理解意图
    • 安全第一:涉及外部操作时,明确标注风险和确认步骤
    • 模块化:一个 Skill 做一件事,不要把所有功能塞到一个 Skill 里

    Skill 管理:启用、禁用、更新

    禁用 Skill

    如果某个 Skill 暂时不需要,你可以禁用它而不必卸载:

    # 方法1:重命名目录(在目录名前加 . 前缀)
    mv ~/.openclaw/skills/my-skill ~/.openclaw/skills/.my-skill.disabled
    
    # 方法2:删除 SKILL.md(保留其他文件)
    mv ~/.openclaw/skills/my-skill/SKILL.md ~/.openclaw/skills/my-skill/SKILL.md.disabled
    
    # 重启 Gateway
    openclaw gateway restart

    更新 Skill

    # npm 安装的 Skill
    npm update openclaw-skill-weather -g
    
    # Git 克隆的 Skill
    cd ~/.openclaw/skills/my-skill
    git pull

    卸载 Skill

    # npm 安装的
    npm uninstall openclaw-skill-weather -g
    
    # 手动安装的
    rm -rf ~/.openclaw/skills/my-skill
    
    openclaw gateway restart

    常见问题和故障排除

    问题 1:安装 Skill 后 AI 不识别

    • 确认 Skill 目录在 ~/.openclaw/skills/
    • 确认 SKILL.md 文件存在且格式正确
    • 重启 Gateway:openclaw gateway restart
    • 检查 SKILL.md 的”何时使用”部分是否描述清晰

    问题 2:Skill 执行时报错

    • 检查是否完成了 SKILL.md 中要求的前置配置
    • 确认 API Key 或账户凭证有效
    • 查看 Gateway 日志获取详细错误信息:openclaw gateway logs
    • 确认依赖的工具已安装(如浏览器驱动等)

    问题 3:多个 Skill 冲突

    如果两个 Skill 的”何时使用”描述过于相似,AI 可能会选错。解决方法是让每个 Skill 的触发条件更加明确和独特。

    问题 4:Skill 占用太多 Token

    某些 Skill 的 SKILL.md 文件很长,加载时会消耗较多 Token。如果成本敏感,可以精简 SKILL.md 内容,只保留核心信息,或者禁用不常用的 Skill。


    总结

    Skills 是 OpenClaw 生态系统的核心扩展机制。通过安装合适的 Skills,你可以把一个通用的 AI 助手变成一个专业级的数字员工。从浏览器自动化到社交媒体运营,从服务器监控到内容营销——只有你想不到,没有 Skills 做不到。

    1. 先从官方推荐的 Skills 开始安装
    2. 仔细阅读每个 Skill 的 SKILL.md
    3. 根据实际需求创建自定义 Skills
    4. 定期更新和管理已安装的 Skills

    下一篇我们会推荐 2026 年最值得安装的 10 个 OpenClaw Skills,帮你快速找到适合自己需求的超能力包。

  • OpenClaw 进阶玩法:Heartbeat、Cron 和自动化工作流

    从聊天工具到自动化平台

    如果你已经用 OpenClaw 做了一些基础的聊天和文件操作,是时候解锁它的真正实力了。OpenClaw 不仅仅是一个对话式 AI——它是一个完整的自动化平台。通过 Heartbeat(心跳)Cron(定时任务)子代理(Sub-agents)三大核心机制,你可以构建出真正自主运行的智能工作流。


    Heartbeat 心跳系统:AI 的主动意识

    什么是 Heartbeat?

    Heartbeat 是 OpenClaw 的周期性唤醒机制。系统会每隔一定时间(默认约 30 分钟)”叫醒” AI 一次,让它执行预设的检查任务。这就像人类的”定时看看有没有新消息”的习惯,只不过 AI 做得更系统、更全面。

    与 Cron 不同,Heartbeat 更适合批量检查类任务——在一个心跳周期内,AI 可以同时检查邮件、日历、天气、社交通知等多个事项,然后统一汇报。

    配置 HEARTBEAT.md

    Heartbeat 的行为由 ~/.openclaw/workspace/HEARTBEAT.md 文件控制。打开这个文件,你会看到类似这样的内容:

    # HEARTBEAT.md - 心跳任务清单
    
    每次心跳时执行以下检查:
    1. 检查是否有新的未读邮件
    2. 查看未来 24 小时内的日历事件
    3. 检查天气变化(如果外出计划受到影响则通知)
    4. 检查服务器运行状态
    
    通知规则:
    - 紧急邮件立即通知
    - 日历事件提前 2 小时提醒
    - 深夜(23:00-08:00)除非紧急否则不打扰

    你需要根据自己的需求来编辑这个文件。以下是一个更完整的配置示例:

    # HEARTBEAT.md - 完整配置示例
    
    ## 检查任务(每次心跳执行)
    1. 邮件:检查是否有紧急或重要的未读邮件
    2. 日历:查看未来 48 小时内的日程安排
    3. 天气:如果有户外计划,检查天气变化
    4. 记忆维护:每周一次,整理 memory/ 目录的日记到 MEMORY.md
    5. 项目状态:检查关键项目的 git 状态
    
    ## 通知规则
    - 重要邮件(发件人在白名单中):立即通知
    - 日历事件(2 小时内):立即通知
    - 天气异常(暴雨、大风):如果有户外计划则通知
    - 其他事项:攒到合适的时间再汇报
    
    ## 静默时段
    - 23:00 - 08:00:除非紧急,否则不打扰
    - 工作时段(09:00-18:00):积极检查和通知
    
    ## 心跳状态追踪
    记录在 memory/heartbeat-state.json 中,避免重复通知

    Heartbeat 实战用例

    用例配置内容通知条件
    邮件监控检查未读邮件,分析重要性VIP 发件人或含”紧急”关键词
    日历提醒查看 24-48h 内的日程事件开始前 2 小时
    天气预警检查天气预报变化有户外计划且天气突变
    社交通知检查 Twitter/微博 mentions有新 mention 时
    记忆维护整理日记,更新长期记忆每周一次

    💡 最佳实践:把多个周期性检查合并到 Heartbeat 中,而不是为每个检查创建单独的 Cron 任务。这样可以减少 API 调用次数,节省成本。Heartbeat 适合”大致定时”的批量检查,Cron 适合”精确到分钟”的独立任务。


    Cron 定时任务:精确到分钟的自动化

    Heartbeat vs Cron:何时用哪个?

    特性HeartbeatCron
    时间精度~30 分钟间隔精确到分钟
    会话上下文共享主会话历史独立会话
    适合场景批量检查、对话式任务精确定时、独立任务
    模型配置使用主会话模型可指定不同模型
    API 成本较低(批量处理)每个任务独立调用

    Cron 使用方法

    在聊天中直接告诉 AI 你想要设置的定时任务,它会自动创建 Cron 任务:

    # 在聊天中发送:
    每天早上 9 点,给我一份当日天气和日程摘要
    每周五下午 5 点,帮我生成本周工作总结
    每 30 分钟检查一次服务器状态,异常时通知我
    20 分钟后提醒我开会

    Cron 实战示例

    每天早上 8:30,帮我做以下事情:
    1. 查看今天的天气
    2. 检查今天的日历安排
    3. 检查是否有紧急未读邮件
    4. 把以上信息汇总成一份简洁的早报发给我

    示例 2:服务器监控

    每 15 分钟检查一次服务器状态:
    1. 运行 uptime 和 free -h 检查负载和内存
    2. 检查关键服务的运行状态(nginx, mysql, redis)
    3. 检查磁盘使用率
    4. 如果任何指标超过阈值(CPU>90%, 内存>85%, 磁盘>90%),立即通知我

    示例 3:备份提醒

    每周日晚上 10 点,提醒我进行以下备份:
    1. 数据库备份
    2. 配置文件备份
    3. 检查上次备份的时间和完整性

    Sub-agents 子代理:并行处理复杂任务

    什么是 Sub-agents?

    当一个任务太复杂或者需要并行处理时,OpenClaw 可以”分裂”出子代理(Sub-agents)来独立执行。每个子代理运行在自己的隔离会话中,拥有独立的上下文,完成任务后自动汇报结果给主会话。

    这就像一个项目经理把不同任务分配给不同的团队成员——每个人独立工作,最后汇总结果。

    Sub-agents 使用场景

    • 并行研究:同时搜索多个主题的信息,然后汇总
    • 复杂任务拆分:把一个大任务拆成多个子任务并行执行
    • 隔离执行:需要不同模型或不同环境的任务
    • 批量处理:对多个文件或数据进行相同的操作

    在实际使用中,当你发送一个复杂请求时,AI 会自动判断是否需要创建子代理。你也可以明确指示它这样做:

    帮我同时做三件事:
    1. 搜一下最新的 Docker 安全最佳实践
    2. 查一下 Node.js 22 的新特性
    3. 检查我服务器的 SSL 证书过期时间

    AI 会自动为这三个任务创建子代理,让它们并行执行,最后给你汇总结果。


    模型切换:为不同任务选择不同大脑

    OpenClaw 支持在不同场景下使用不同的 AI 模型。你不需要为所有任务使用最贵的模型——简单任务用轻量模型,复杂推理用高级模型,这样可以在效果和成本之间取得最佳平衡。

    场景推荐模型原因
    日常聊天轻量模型(GPT-4o-mini 等)响应快、成本低
    代码生成中等模型(Claude 3.5 Sonnet 等)代码质量高
    复杂推理高级模型(Claude Opus 等)深度思考能力强
    Cron 任务轻量模型定时任务成本敏感

    你可以在配置文件中设置默认模型,也可以在运行时通过命令切换:

    # 在聊天中切换模型
    /model openrouter/anthropic/claude-3.5-sonnet

    实战案例:自动化服务器监控系统

    让我们把以上所有概念结合起来,构建一个完整的服务器监控自动化系统。

    需求分析

    • 每 15 分钟检查服务器基本状态
    • 异常时立即通知
    • 每天早上发送服务器日报
    • 每周生成性能趋势报告

    Step 1:配置 Heartbeat

    # HEARTBEAT.md - 服务器监控部分
    
    ## 服务器检查
    每次心跳时:
    1. 运行 uptime 检查负载
    2. 运行 free -h 检查内存
    3. 运行 df -h 检查磁盘
    4. 检查 nginx/mysql/redis 服务状态
    5. 如果有任何异常(负载>5, 内存>85%, 磁盘>90%),立即通知
    
    ## 静默规则
    - 低负载时(CPU<50%)只在每天日报时汇报
    - 中等负载时(50%-80%)每小时汇总一次
    - 高负载时(>80%)立即通知

    Step 2:创建 Cron 任务

    # 在聊天中告诉 AI:
    
    # 每日日报
    每天早上 9 点,生成服务器日报,包括:
    - 昨日平均负载和峰值
    - 内存使用趋势
    - 磁盘使用趋势
    - 服务可用性统计
    - 任何异常事件汇总
    
    # 每周报告
    每周一早上 10 点,生成服务器周报,包括:
    - 一周的性能趋势图表数据
    - 异常事件统计
    - 容量规划建议

    Step 3:使用 Sub-agents 并行检查

    当 AI 检测到异常时,可以自动创建子代理来并行排查问题:

    # 异常处理逻辑(AI 会自动执行)
    如果检测到异常:
    1. 主代理:检查系统日志(dmesg, journalctl)
    2. 子代理1:检查网络连接和端口状态
    3. 子代理2:检查进程资源占用(top, ps aux)
    4. 汇总分析后生成诊断报告并通知用户

    Workspace 自动化进阶

    自定义工作流脚本

    你可以在 workspace 中创建脚本文件,让 AI 在特定场景下执行。比如创建一个部署脚本:

    # scripts/deploy.sh
    #!/bin/bash
    echo "开始部署..."
    git pull origin main
    npm install --production
    npm run build
    pm2 restart all
    echo "部署完成!"

    然后告诉 AI:”帮我执行部署脚本”,它就会运行这个脚本并汇报结果。

    Webhook 集成

    OpenClaw 可以接收外部 Webhook 通知,实现事件驱动的自动化。比如当 GitHub 有新的 Push 事件时,自动触发代码检查或部署流程。

    Hooks 机制

    通过配置 Hooks,你可以在特定事件发生时自动执行操作。例如,当文件被修改时自动运行测试,或者当收到特定类型的消息时自动执行预定义的处理流程。


    性能优化和成本控制

    • Heartbeat 间隔:默认 30 分钟,可以根据需要调整。太频繁会增加 API 调用成本
    • Cron 任务精简:避免创建太多高频 Cron 任务,能合并的尽量合并
    • 模型选择:Heartbeat 和 Cron 任务尽量使用轻量模型,复杂任务才用高级模型
    • 上下文管理:定期使用 /compact 压缩会话历史,减少 token 消耗
    • 条件触发:设置合理的触发条件,避免无效检查。比如”如果有户外计划才检查天气”

    💰 成本提示:一个配置得当的 Heartbeat 系统,每天的 API 成本可以控制在几毛钱到几块钱之间。关键是选对模型、设好条件、合并检查任务。


    总结

    OpenClaw 的进阶玩法核心就三个词:主动定时并行

    • Heartbeat 让 AI 变得主动,不再只是被动等你提问
    • Cron 让 AI 按时执行任务,成为可靠的定时器
    • Sub-agents 让 AI 能同时处理多个任务,效率翻倍

    把这些能力组合起来,你就能构建出真正自主运行的智能工作流。OpenClaw 不只是一个聊天工具——它是你的数字化分身,帮你盯着该盯的事情,做该做的事。

  • OpenClaw 入门指南:5 分钟上手你的第一个 AI 助手

    OpenClaw 能帮你做什么?

    安装好 OpenClaw 之后,你可能会问:「这东西到底能干啥?」简单来说,OpenClaw 是一个运行在你机器上的 AI 助手,它不只是会聊天——它能帮你做事。

    能力具体能做什么示例
    智能对话自然语言聊天、回答问题“帮我解释一下什么是 WebSocket”
    文件操作读写、编辑、管理文件“帮我整理一下 workspace 里的文件”
    Web 搜索实时搜索互联网“帮我搜一下最新的 Node.js 版本”
    Shell 命令执行系统命令“帮我查一下服务器的内存使用情况”
    定时任务Heartbeat + Cron 自动化“每天早上 9 点提醒我喝水”
    日程管理查询日历、提醒事件“我今天有什么安排?”
    Skills 扩展通过插件扩展能力浏览器自动化、小红书运营等

    关键是——这一切都运行在你自己的机器上,数据完全私有,不需要把个人信息交给第三方。

    Workspace 文件结构一览

    OpenClaw 的所有内容都存储在 ~/.openclaw/workspace/ 目录下。理解这个目录结构是用好 OpenClaw 的基础:

    ~/.openclaw/
    ├── workspace/
    │   ├── AGENTS.md        # 工作规则和约定
    │   ├── SOUL.md          # AI 的性格定义
    │   ├── USER.md          # 关于你的信息
    │   ├── MEMORY.md        # AI 的长期记忆
    │   ├── TOOLS.md         # 工具相关笔记
    │   ├── HEARTBEAT.md     # 心跳任务配置
    │   ├── IDENTITY.md      # AI 的身份信息
    │   └── memory/          # 每日记忆笔记目录
    │       ├── 2026-03-31.md
    │       └── ...
    ├── skills/              # 技能插件目录
    └── config/              # 系统配置文件

    核心文件说明

    • SOUL.md — 这是 AI 的”灵魂”。定义它的说话风格、性格特征、行为准则。你在这里写什么,它就会变成什么样。
    • USER.md — 让 AI 了解你。你的名字、时区、职业、偏好,它会用这些信息来个性化服务。
    • MEMORY.md — AI 的长期记忆。重要的事情、学到的教训、你的偏好变化,都会记录在这里。
    • memory/ — 每日笔记目录。每天的交互记录、事件日志,类似日记本。
    • HEARTBEAT.md — 定时任务配置。告诉 AI 在每次”心跳”时要检查什么、做什么。

    开始对话:你的第一条消息

    配置好消息通道(Telegram / Discord / WhatsApp)后,打开对应的聊天窗口,向你的 OpenClaw bot 发送第一条消息。不需要特殊格式,直接说话就行:

    你好,你叫什么名字?

    AI 会根据 SOUL.md 和 IDENTITY.md 中的配置来回应你。如果你还没有编辑过这些文件,它可能会给自己起一个默认的名字。

    💡 小技巧:第一次对话时,可以告诉它你的偏好,比如”我喜欢简洁的回答”、”技术问题请直接给代码”。它会记住这些偏好并更新 USER.md。

    基本命令速查

    OpenClaw 提供了一系列斜杠命令,方便你快速执行常用操作:

    命令功能使用场景
    /status查看系统状态确认 Gateway 运行状态、当前模型等
    /help获取帮助不确定能用什么功能时
    /reset重置当前会话对话跑偏了想重新开始
    /reasoning切换推理模式需要深度思考时开启
    /compact压缩会话历史对话太长导致响应变慢时

    除了斜杠命令,你也可以直接用自然语言告诉 AI 做任何事情。它会自动判断是需要执行命令、搜索信息还是简单回答。

    个性化你的 AI 助手

    设置性格:编辑 SOUL.md

    SOUL.md 是塑造 AI 性格的核心文件。一个好的 SOUL.md 应该包含:

    • 说话风格:正式还是随意?简洁还是详细?
    • 性格特征:幽默?严肃?温柔?毒舌?
    • 行为准则:什么时候该主动?什么时候该沉默?
    • 底线:哪些事情绝对不做?

    一个实用的 SOUL.md 示例:

    # SOUL.md - AI 性格定义
    
    ## 核心原则
    - 直接有效,不废话
    - 有观点,不和稀泥
    - 技术问题给代码,生活问题给建议
    
    ## 风格
    - 简洁为主,但该详细的时候不含糊
    - 偶尔吐槽,但不伤人
    - 中文优先,技术术语可以用英文
    
    ## 红线
    - 不发半成品回复
    - 不在群聊里刷存在感
    - 私人信息绝对不外泄

    让 AI 认识你:编辑 USER.md

    USER.md 告诉 AI 你是谁、你关心什么。这些信息会让它的回答更贴合你的需求:

    # USER.md - 关于你
    
    - 名字:zzh
    - 时区:Asia/Shanghai
    - 职业:开发者
    - 偏好:喜欢简洁直接的回答
    - 技术栈:Node.js, Python
    - 讨厌的事情:废话、套话、过度礼貌

    记忆系统:AI 如何记住你

    OpenClaw 有两层记忆系统:

    短期记忆:每日笔记

    每次对话结束后,AI 会在 memory/ 目录下创建当天的笔记文件(如 2026-03-31.md),记录当天发生的重要事件、讨论的话题、做出的决定等。

    下次对话开始时,AI 会自动读取今天的笔记和昨天的笔记,恢复上下文。这意味着你不需要重复解释背景——它已经知道了。

    长期记忆:MEMORY.md

    MEMORY.md 是 AI 的长期记忆库。重要的经验教训、你的偏好变化、项目进展等会被定期整理到这里。它会在心跳(Heartbeat)时自动进行记忆维护——翻阅近期的日记,把值得保留的内容提炼到长期记忆中。

    🔑 关键点:记忆系统是 OpenClaw 区别于普通聊天机器人的核心特性之一。它让你的 AI 助手真正”认识”你,而不是每次对话都从零开始。

    你的第一个实用任务

    配置好性格和基本信息后,是时候让 AI 帮你做点实事了。以下是几个适合入门的任务:

    任务 1:查天气

    帮我查一下北京今天的天气

    AI 会调用天气服务获取实时天气信息并返回给你,包括温度、湿度、天气状况等。

    任务 2:搜索信息

    帮我搜一下 2026 年最流行的前端框架

    AI 会执行网络搜索,整理搜索结果,给你一个简洁的总结。

    任务 3:文件操作

    帮我看看 workspace 目录下有哪些文件

    AI 会执行 ls 命令并返回结果。它还能帮你创建、编辑、移动、删除文件。

    任务 4:系统信息

    帮我查一下服务器的 CPU 和内存使用情况

    AI 会运行 topfree -h 等系统命令,给你一个清晰的系统状态报告。

    任务 5:写点东西

    帮我写一篇关于 Docker 入门的博客文章

    AI 会根据你的写作风格偏好(在 SOUL.md 中定义)来生成内容。它还能帮你把内容保存到文件中。

    高效沟通技巧

    和 AI 助手沟通有一些小技巧,能让你获得更好的体验:

    • 说清楚你要什么:不要只说”帮我写个东西”,要说”帮我写一个 Python 脚本,实现文件批量重命名”
    • 提供上下文:如果是继续之前的对话,提一下上下文。虽然 AI 有记忆系统,但明确说一下更保险
    • 要求格式:如果你需要代码、表格或列表,直接说”给我一个代码示例”或”用表格展示”
    • 迭代改进:第一次结果不满意很正常,直接说”再简洁一点”、”换个思路”、”加上注释”
    • 信任但验证:AI 生成的代码和建议值得检查,特别是在生产环境中使用之前

    🎯 黄金法则:你对 AI 越具体,它给你的结果越好。”帮我写代码”不如”帮我写一个 Express 路由,处理 POST 请求,验证 JSON body 中的 email 字段”。

    下一步探索

    掌握了基本用法后,你可以继续探索:

    1. Heartbeat 配置:让 AI 主动帮你检查邮件、日历、天气
    2. Skills 安装:给 AI 装上浏览器自动化、社交媒体运营等超能力
    3. Cron 任务:精确定时执行任务,比如每天早上 8 点发送日报
    4. 子代理(Sub-agents):让 AI 同时处理多个任务
    5. 模型切换:不同任务用不同模型,平衡成本和效果

    OpenClaw 的潜力远不止于此。随着你对它的了解加深,你会发现它不仅仅是一个工具——它更像是一个数字化的工作伙伴。

  • OpenClaw 安装教程:从零搭建你的 AI 助手

    OpenClaw 是什么?为什么你需要它

    如果你曾经想过拥有一个真正属于自己的 AI 助手——不只是一个聊天窗口,而是一个能帮你查邮件、管文件、自动化工作流、甚至记住你偏好的”数字伙伴”——那么 OpenClaw 正是你在找的东西。

    OpenClaw 是一个开源的个人 AI 助手平台,它把大语言模型(LLM)的能力和本地工具链结合在一起。你可以通过 Telegram、Discord、WhatsApp 甚至网页与它交互,它能执行文件操作、搜索网页、管理日程、运行 shell 命令,还能通过 Skills 系统无限扩展功能。

    和 ChatGPT 这类在线聊天机器人不同,OpenClaw 运行在你自己的机器上,数据完全由你掌控。它有记忆系统、有性格、有主动性——它会定时检查你的邮箱、提醒你日程、甚至在你没问的时候主动告诉你天气。

    系统要求

    在开始安装之前,先确认你的环境满足以下要求:

    项目最低要求推荐配置
    操作系统Linux / macOS / Windows (WSL2)Ubuntu 22.04+ / macOS 14+
    Node.jsv18.0+v22 LTS
    内存512MB 可用2GB+
    磁盘空间500MB2GB+(含模型缓存)
    网络能访问 OpenRouter / OpenAI API稳定网络连接

    支持的操作系统:

    • Linux:Ubuntu、Debian、CentOS、Arch 等主流发行版均可
    • macOS:12 Monterey 及以上版本
    • Windows:需要通过 WSL2 运行(推荐 Ubuntu on WSL)
    • 树莓派:ARM64 架构同样支持

    第一步:安装 Node.js

    OpenClaw 基于 Node.js 开发,所以第一步是确保你的系统安装了 Node.js v18 或更高版本。

    Linux(Ubuntu/Debian)

    # 使用 NodeSource 安装 Node.js 22 LTS
    curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
    sudo apt-get install -y nodejs
    
    # 验证安装
    node -v  # 应显示 v22.x.x
    npm -v   # 应显示 10.x.x

    macOS

    # 使用 Homebrew 安装
    brew install node@22
    
    # 或者从 nodejs.org 下载安装包
    # 访问 https://nodejs.org 下载 LTS 版本
    
    # 验证
    node -v
    npm -v

    Windows(WSL2)

    # 先安装 WSL2(以管理员身份运行 PowerShell)
    wsl --install
    
    # 进入 WSL 后按 Linux 方式安装
    curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
    sudo apt-get install -y nodejs

    第二步:全局安装 OpenClaw

    Node.js 就绪后,一行命令即可安装 OpenClaw:

    npm install openclaw -g

    安装完成后,验证版本:

    openclaw --version

    如果看到版本号输出,恭喜你,OpenClaw 已经成功安装到你的系统中了。

    💡 小贴士:如果遇到权限问题(EACCES),不要用 sudo npm install。正确做法是配置 npm 全局目录:

    mkdir -p ~/.npm-global
    npm config set prefix '~/.npm-global'
    echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc
    source ~/.bashrc

    第三步:初始化工作空间

    安装完成后,运行初始化命令来创建你的 OpenClaw 工作空间:

    openclaw init

    这个命令会引导你完成初始配置,包括:

    1. 选择 AI 模型提供商(OpenRouter / OpenAI / Anthropic 等)
    2. 配置 API Key
    3. 选择默认模型
    4. 设置时区
    5. 配置消息通道(Telegram / Discord / WhatsApp 等)

    初始化完成后,你会在 ~/.openclaw/ 目录下看到完整的工作空间结构。

    第四步:了解配置文件

    OpenClaw 的核心配置文件位于 ~/.openclaw/workspace/ 目录下,每个文件都有特定的用途:

    文件名作用必须编辑?
    SOUL.mdAI 的性格、风格、行为准则强烈推荐
    USER.md关于你的信息(名字、偏好、时区等)强烈推荐
    AGENTS.md工作规则和约定保持默认即可
    MEMORY.mdAI 的长期记忆自动生成
    TOOLS.md工具相关的本地配置笔记按需编辑
    HEARTBEAT.md定时任务配置按需编辑

    SOUL.md:定义 AI 的灵魂

    这是最重要的配置文件之一。它决定了你的 AI 助手的说话风格、性格特征和行为准则。比如你可以让它幽默风趣,也可以让它严肃专业:

    # SOUL.md 示例
    ## 性格
    幽默、直接、不废话。有问题就解决,没空说"我很乐意帮助你"。
    
    ## 风格
    简洁为主,技术问题给代码,生活问题给建议。偶尔吐槽。

    USER.md:让 AI 认识你

    填写你的基本信息,AI 会用这些信息来个性化服务:

    # USER.md 示例
    - 名字:小明
    - 时区:Asia/Shanghai
    - 职业:全栈开发者
    - 偏好:喜欢简洁的回答,技术栈以 Node.js 为主

    第五步:启动和验证

    配置完成后,启动 OpenClaw Gateway 服务:

    # 启动 Gateway
    openclaw gateway start
    
    # 查看状态
    openclaw gateway status

    如果一切正常,你会看到类似以下的输出,表示 Gateway 已经在运行并等待连接。

    接下来,打开你配置的消息通道(比如 Telegram),向你的 bot 发送一条消息试试。如果你能收到回复,说明整个系统已经成功运行了!

    🎯 验证清单:

    ✅ Gateway 运行正常(openclaw gateway status
    ✅ 消息通道连接成功
    ✅ 能收到 AI 的回复
    ✅ AI 能执行基本命令(如 /status

    常见安装问题及解决方案

    问题 1:npm install 报错 EACCES

    原因:npm 全局安装目录权限不足。

    解决:配置用户级 npm 目录,或者使用 nvm 管理 Node.js 版本(推荐):

    # 使用 nvm 安装 Node.js(推荐方式)
    curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
    nvm install 22
    nvm use 22
    npm install openclaw -g

    问题 2:Node.js 版本过低

    原因:系统自带的 Node.js 版本太旧(常见于 Ubuntu 仓库版本)。

    解决:使用 NodeSource 或 nvm 安装 v18+ 版本,不要用系统包管理器的默认版本。

    问题 3:Gateway 启动失败

    原因:通常是 API Key 配置错误或网络问题。

    解决步骤:

    1. 检查配置文件中的 API Key 是否正确
    2. 确认网络能访问对应的 API 端点
    3. 查看日志:openclaw gateway logs
    4. 尝试重启:openclaw gateway restart

    问题 4:消息通道收不到消息

    原因:Telegram Bot Token 错误,或 bot 未正确配置。

    解决:确认 Bot Token 有效,且已在 Telegram 中正确与 bot 对话。运行 openclaw init 重新配置通道。

    可选:Docker 部署

    如果你不想在主机上直接安装 Node.js 环境,Docker 是一个干净的替代方案:

    # 拉取镜像
    docker pull openclaw/openclaw:latest
    
    # 创建数据目录
    mkdir -p ~/openclaw-data
    
    # 运行容器
    docker run -d \
      --name openclaw \
      -v ~/openclaw-data:/root/.openclaw \
      -p 3000:3000 \
      openclaw/openclaw:latest
    
    # 查看日志
    docker logs -f openclaw

    Docker 部署的好处是环境隔离、易于迁移、不影响宿主机环境。适合在 VPS 上运行,或者想要快速测试的场景。

    ⚠️ 注意:使用 Docker 时,工作空间数据需要持久化挂载到宿主机,否则容器销毁后数据会丢失。

    下一步

    安装完成后,建议你:

    1. 编辑 SOUL.mdUSER.md,让 AI 更了解你
    2. 试试基本聊天功能,发送 /help 查看可用命令
    3. 探索 Skills 系统,给 AI 安装额外的能力
    4. 配置 Heartbeat,让 AI 主动为你做定时任务

    OpenClaw 的真正魅力在于它的可定制性和扩展性。安装只是开始,接下来的”入门指南”会带你快速上手核心功能。