OpenClaw 进阶

skill

  • PDF
  • DOCX
  • PPTX
  • XLSX
  • News Aggregator Skill:全网科技/金融/AI深度新闻聚合助手,专为智能 Agent 打造的高效信息引擎
  • vercel-react-best-practices:Vercel 官方工程团队出品的 React/Next.js 最佳实践,指导 Agent 写出真正的高性能优化代码
  • frontend-design:Anthropic 官方出品,强制 Agent 先做“设计思考与审美取向选择”,再写代码

飞书配置

1. 安装飞书官方插件

1
2
3
4
5
# 安装
npx -y @larksuite/openclaw-lark install

# 更新
npx -y @larksuite/openclaw-lark update

最新的权限


2. 流式输出

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
"channels": {
    "feishu": {
      "streaming": true,        // <--- 新增:启用流式输出
      "renderMode": "card",     // <--- 新增:使用卡片模式渲染
      "blockStreaming": true,   // <--- 新增:开启块更新,防止触发飞书频率限制
      "enabled": true,
      "appId": "xxxxxx",
      "appSecret": "xxxxxx",
      "connectionMode": "websocket",
      "domain": "feishu",
      "groupPolicy": "open"
    }
}

流式输出卡片上支持显示更多内容

1
2
openclaw config set channels.feishu.footer.elapsed true  // 开启耗时
openclaw config set channels.feishu.footer.status true  // 开启状态展示

3. 设置多任务并行、独立上下文

机器人可在话题群/消息群话题模式中,针对每个话题拥有独立上下文以及多任务并行。

如需开启该能力 可运行指令

1
openclaw config set channels.feishu.threadSession true

4. 飞书机器人在群内的回复方式

目前插件默认方式:可被拉进群,只有@ 机器人才可回复。

模式 1:只有 @机器人 才回复(最常用)

1
2
3
4
5
# 设置需要 @ 才回复
openclaw config set channels.feishu.requireMention true --json# 重启生效sh /workspace/projects/scripts/restart.sh

# 完整配置示例
{"channels": {"feishu": {"enabled": true,"appId": "cli_你的AppID","appSecret": "你的AppSecret","requireMention": true,"groupPolicy": "open"}}}

模式 2:不用 @,所有消息都回复

需要额外在开发者后台申请权限-应用身份权限:获取群组中所有消息(敏感权限)im:message.group_msg

1
2
3
4
# 设置不需要 @ 也回复
openclaw config set channels.feishu.requireMention false --json# 重启生效sh /workspace/projects/scripts/restart.sh

{"channels": {"feishu": {"enabled": true,"appId": "cli_你的AppID","appSecret": "你的AppSecret","requireMention": false,"groupPolicy": "open"}}}

模式 3:只有指定群 @机器人 才回复(高级)

效果

  • 大部分群:不用 @ 也能回复(或者完全不回复)
  • 特定群:必须 @ 才回复
  • 适合:不同群不同规则,比如工作群严格一点,闲聊群随意一点

配置方法

第一步:获取群 ID;让机器人加入群后,发送任意消息,然后在日志里找群 ID,或者让机器人回复群 ID。或飞书群设置页面中有ID

第二步:配置特定群规则

1
2
3
4
5
6
# 先设置默认所有群都不需要 @
openclaw config set channels.feishu.requireMention open --json# 然后给特定群设置需要 @(这里群ID只是示例,你要替换成真实的)
openclaw config set channels.feishu.groups.oc_xxxxxxxx.requireMention true --json# 重启生效sh /workspace/projects/scripts/restart.sh

# 完整配置示例
{"channels": {"feishu": {"enabled": true,"appId": "cli_你的AppID","appSecret": "你的AppSecret","requireMention": "open","groupPolicy": "open","groups": {"oc_532044075a61d112f04fa63109c75e9b": {"requireMention": true},"oc_另一个群ID": {"requireMention": true}}}}}

5. 常见诊断命令与问题修复

  1. 可在与AI 的对话中发送
  • /feishu start:确认是否安装成功;
  • /feishu doctor:可检查配置是否正常;
  • 如果希望批量完成用户授权,/feishu auth 可批量完成用户授权;
  • 插件中也内置了常见问题的解决方案,遇到问题 都可以先问问小龙虾了!
  1. 如果不行,则运行指令:
1
2
3
4
5
# 可以查看问题,自主修复
npx @larksuite/openclaw-lark doctor

# 运行 fix尝试自动修复
npx @larksuite/openclaw-lark doctor --fix
  1. 如果仍然无法修复,可在反馈群里反馈信息
1
2
3
4
5
# 运行 info 查看版本信息,反馈问题时带上辅助排查
npx @larksuite/openclaw-lark info 

# --all查看详细配置信息
npx @larksuite/openclaw-lark info --all

6. 常用命令

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
/new        # 开启新会话(重置上下文,可指定模型
/clear      # 清除当前会话(等价于重置会话)
/compress   # 压缩上下文(总结历史对话,节省token)
/status     # 查看当前状态(token、配额、provider使用情况)

/think off  # 关闭思考(最快,低成本)
/think high # 深度思考(更强推理,更慢更贵)

/model      # 查看模型列表/选择器
/model xxx  # 切换模型(支持 provider/model 或编号)

/skill      # 调用技能(执行工具/插件,如 /skill xxx)
/skill list # 查看所有可用技能列表(已注册工具)

/reasoning on/off # 显示/隐藏推理过程(仅影响展示)

/stop       # 停止当前生成/任务执行
/help       # 查看所有命令帮助

7. 使用技巧

  1. 解决 openclaw 产生的文件乱放的问题

在 soul.md 中添加以下内容

1
2
3
4
5
6
## 文件与路径管理原则(严格遵守)
- 所有处理的文件、下载、生成的报告、代码、图片、临时文件,一律统一存放在 ~/.openclaw/workspace/media/ 目录下。
- 除非用户明确说「可以放在桌面」或「可以放在下载」,否则严禁放在桌面、下载文件夹或其他地方。
- 如果任务明确属于某个项目,先 cd 到对应子文件夹(例如 ~/.openclaw/workspace/media/税务申报-2026/)再进行任何文件操作。
- 任何涉及创建、移动、删除、读取文件之前,必须先把**拟操作的完整绝对路径**用代码块告诉我,等待用户确认后才能继续。
- 任务完成后,把最终生成/保存的文件路径(完整绝对路径)用 ``` 代码块  ``` 清晰呈现给用户。

在 user.md 中添加以下内容

1
我对文件管理非常在意,请严格遵守 SOUL.md 里的文件路径规则,不要随意乱放文件。

  1. 解决向飞书发送文件的问题
1
飞书支持给用户发送图片、文件、音频、视频并直接浏览,请你详细了解具体的发送方法,并且必须要把需要发送的文件放到 workspace 工作空间中。你必须记住这些方法,之后快速地给我发送想要的内容。

成功过后,构建为 skill


8. 其他问题

在转换 markdown 文件到 pdf 文件时出现乱码

1
2
brew install pandoc --force
brew install --cask mactex

ClawTeam-OpenClaw

步骤 1:先决条件

检查已有的条件

1
2
3
python3 --version   # Need 3.10+
tmux -V             # Need any version
openclaw --version  # Or: claude --version / codex --version

安装缺少的先决条件

Tool 工具 macOS Ubuntu/Debian
Python 3.10+ brew install python@3.12 sudo apt update && sudo apt install python3 python3-pip
tmux brew install tmux sudo apt install tmux
OpenClaw pip install openclaw pip install openclaw

步骤 2:安装 ClawTeam

1
2
3
git clone https://github.com/win4r/ClawTeam-OpenClaw.git
cd ClawTeam-OpenClaw
pip install -e .

步骤 3:创建 ~/bin/clawteam 软链接

spawn 出来的 agent 会运行在新的 shell 中,这些新 shell 不一定能自动拿到 pip 的 bin 路径。所以推荐创建一个固定软链接,保证 clawteam 在任何新 shell 里都能找到。

1
2
mkdir -p ~/bin
ln -sf "$(which clawteam)" ~/bin/clawteam

如果 which clawteam 没返回结果,可以手动查找:

1
2
3
4
5
6
# Common locations:
# ~/.local/bin/clawteam
# /opt/homebrew/bin/clawteam
# /usr/local/bin/clawteam
# /Library/Frameworks/Python.framework/Versions/3.*/bin/clawteam
find / -name clawteam -type f 2>/dev/null | head -5

确保 ~/bin 已加入 PATH,如果你的 shell 环境里还没有 ~/bin,需要把它加入 PATH。README 建议把下面这一行写入 ~/.zshrc 或 ~/.bashrc

1
2
export PATH="$HOME/bin:$PATH"
source ~/.zshrc

步骤 4:安装 OpenClaw 技能

这个 skill 的作用,是让 OpenClaw agent 能通过自然语言学会使用 clawteam

1
2
mkdir -p ~/.openclaw/workspace/skills/clawteam
cp skills/openclaw/SKILL.md ~/.openclaw/workspace/skills/clawteam/SKILL.md

配置 exec approvals

spawn 出来的 OpenClaw agent 需要有权限执行 clawteam 命令,否则它们会卡在交互式权限确认上

先确保 OpenClaw 的安全模式是 allowlist,而不是 full

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
# Ensure security mode is "allowlist" (not "full")
python3 -c "
import json, pathlib
p = pathlib.Path.home() / '.openclaw' / 'exec-approvals.json'
if p.exists():
    d = json.loads(p.read_text())
    d.setdefault('defaults', {})['security'] = 'allowlist'
    p.write_text(json.dumps(d, indent=2))
    print('exec-approvals.json updated: security = allowlist')
else:
    print('exec-approvals.json not found — run openclaw once first, then re-run this step')
"

然后把 clawteam 加入 allowlist

1
2
# Add clawteam to the allowlist
openclaw approvals allowlist add --agent "*" "*/clawteam"

如果这条命令失败,README 提示通常是因为 OpenClaw gateway 没启动,需要先启动 gateway 再重试


步骤5:验证

1
2
clawteam --version          # Should print version
clawteam config health      # Should show all green

确认技能已加载

1
openclaw skills list | grep clawteam

memtensor/memos

文档:https://memos-claw.openmem.net/docs/index.html#quickstart

Step 1:安装插件 & 启动

1
2
3
4
5
# mac/linux
curl -fsSL https://cdn.memtensor.com.cn/memos-local-openclaw/install.sh | bash

# windows
powershell -c "irm https://cdn.memtensor.com.cn/memos-local-openclaw/install.ps1 | iex"

Step2: 配置

编辑 openclaw.json 或通过 Viewer 网页面板在线修改。支持分级模型。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
{
  "plugins": {
    "slots": { "memory": "memos-local-openclaw-plugin" },
    "entries": { "memos-local-openclaw-plugin": {
      "config": {
        "embedding": {                           // lightweight
          "provider": "openai_compatible",
          "model": "bge-m3",
          "endpoint": "https://your-api-endpoint/v1",
          "apiKey": "sk-••••••"
        },
        "summarizer": {                          // mid-tier
        "provider": "openai_compatible",
          "model": "gpt-4o-mini",
          "endpoint": "https://your-api-endpoint/v1",
          "apiKey": "sk-••••••"
        },
        "skillEvolution": {
          "summarizer": {                        // high-quality
            "provider": "openai_compatible",
            "model": "claude-4.6-opus",
            "endpoint": "https://your-api-endpoint/v1",
            "apiKey": "sk-••••••"
          }
        },
        "recall": {                               // optional
          "vectorSearchMaxChunks": 0   // 0=search all; set 200000–300000 only if slow on huge DB
        },
        "viewerPort": 18799
      }
    }}
  }
}

安装后每次对话自动存入记忆。访问 http://127.0.0.1:18799 使用 Viewer。

ollama

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
# 已安装的模型列表
ollama list

# 安装 LLM 模型
ollama run qcwind/qwen2.5-7B-instruct-Q4_K_M

# 安装 Embedding 模型
ollama pull bge-m3

# 安装 Reranker 模型
ollama pull dengcao/bge-reranker-v2-m3

# 测试
ollama serve

# 卸载模型
ollama rm qcwind/qwen2.5-7B-instruct-Q4_K_M