
项目摘要
一个通过实时对话进行元学习和进化的AI智能体框架。
MetaClaw 是一个AI智能体框架,它通过代理用户与个人助手(如OpenClaw、CoPaw等)的对话,将每次交互转化为学习信号。核心功能包括技能注入、会话后自动技能总结,以及可选的在后台空闲时段进行的强化学习微调,旨在让智能体在真实使用中持续进化。它无需本地GPU,支持多种AI模型API和训练后端。
项目详细信息
直接与你的智能体对话——它会学习并进化。
灵感源自大脑的学习方式。通过每一次真实对话,让你的🦞进行元学习与进化。无需GPU。
🇨🇳 中文 • 🇯🇵 日本語 • 🇰🇷 한국어 • 🇫🇷 Français • 🇩🇪 Deutsch • 🇪🇸 Español • 🇧🇷 Português • 🇷🇺 Русский • 🇮🇹 Italiano • 🇻🇳 Tiếng Việt • 🇦🇪 العربية • 🇮🇳 हिन्दी
Overview • Quick Start • Multi-Claw Support • Configuration • Skills Mode • RL Mode • Auto Mode • Memory • Citation
只需两个命令。仅此而已。
🔥 最新动态
- [2026年4月11日] v0.4.1 — 增量记忆摄取:记忆层现在每 N 轮对话(默认为 5)提取并持久化对话轮次,而不仅仅在会话结束时进行,从而缩短了会话过程中的记忆空白窗口。
- [2026年3月25日] v0.4.0 — 上下文层:MetaClaw 现在支持跨会话的用户和项目记忆。相关事实、偏好和项目历史会自动检索并注入到提示中。包含自适应记忆策略、后台整合以及可选的记忆侧车服务。
- [2026年3月24日] v0.3.3 — 一键式 OpenClaw 插件:MetaClaw 现在作为原生 OpenClaw 扩展发布 —— 将文件夹放入 OpenClaw 的扩展目录,运行一条命令,所有设置自动完成。
- [2026年3月18日] 我们的技术报告《MetaClaw: Just Talk -- An Agent That Meta-Learns and Evolves in the Wild》发布了!🏆 在 HuggingFace Daily Papers 上排名第一! 快来查看!
- [2026年3月16日] v0.3.2 — 支持多款 Claw:除了 OpenClaw,现在支持 IronClaw、PicoClaw、ZeroClaw、CoPaw、NanoClaw 和 NemoClaw。NanoClaw 通过新的
/v1/messagesAnthropic 兼容端点连接;NemoClaw 通过 OpenShell 推理路由连接。新增 OpenRouter 作为支持的 LLM 平台。 - [2026年3月13日] v0.3.1 — 支持 MinT 后端:RL 训练现在可与 Tinker 和 MinT 协同工作。可通过
rl.backend配置(自动/tinker/mint)。 - [2026年3月13日] v0.3 — 支持持续元学习:缓慢的 RL 更新现在只在睡眠时间、空闲时间或 Google Calendar 会议期间运行。新增支持/查询集分离,以防止过时的奖励信号污染模型更新。
- [2026年3月11日] v0.2 — 通过
metaclawCLI 实现一键部署。技能默认启用,RL 现在为可选功能。 - [2026年3月9日] 我们发布了 MetaClaw —— 只需与您的智能体对话,让它自动进化。无需 GPU 部署;只需接入 API 即可。
🎥 演示
https://github.com/user-attachments/assets/d86a41a8-4181-4e3a-af0e-dc453a6b8594
📖 概述
MetaClaw 是一个能在真实环境中进行元学习并进化的智能体。 只需像平常一样与您的智能体对话 —— MetaClaw 将每一次实时对话转化为学习信号,使智能体能够通过真实世界的部署持续改进,而不仅仅依赖于离线训练。
在底层,它将您的模型置于一个代理之后,该代理拦截来自您的个人智能体(OpenClaw、CoPaw、IronClaw、PicoClaw、ZeroClaw、NanoClaw、NemoClaw 或任何 OpenAI 兼容客户端)的交互,在每一轮对话中注入相关技能,并从积累的经验中进行元学习。对于像 NanoClaw 这样的原生 Anthropic 智能体,MetaClaw 还暴露了一个 /v1/messages Anthropic 兼容端点,因此整个流程无需对智能体端进行任何更改。技能在每次会话后自动总结;启用 RL 后,元学习调度器会将权重更新推迟到空闲窗口进行,确保智能体在活跃使用时永远不会被打断。
无需 GPU 集群。MetaClaw 开箱即用地支持任何 OpenAI 兼容的 LLM API,并使用 Tinker 兼容的后端进行基于云的 LoRA 训练。Tinker 是默认的参考路径;MinT 和 Weaver 可以在需要时通过单独的兼容性包启用。
🤖 主要特性
一键部署
使用 metaclaw setup 配置一次,然后 metaclaw start 会启动代理、注入技能并自动连接您选择的个人智能体(OpenClaw、CoPaw 或 IronClaw)。无需手动编写 Shell 脚本。
三种运行模式
| 模式 | 默认 | 功能描述 |
|---|---|---|
skills_only | 代理您的 LLM API。技能在每次会话后注入并自动总结。无需 GPU/Tinker。 | |
rl | 技能 + RL 训练 (GRPO)。当批次满时立即训练。可选 OPD 用于教师蒸馏。 | |
auto | ✅ | 技能 + RL + 智能调度器。RL 权重更新仅在睡眠/空闲/会议窗口期间运行。 |
| MetaClaw 能够跨会话持久化存储事实、偏好和项目历史,并在每次交互时注入相关上下文——因此您的智能体能够记住您告知的信息,即使相隔数周。 |
异步设计
服务、奖励建模和训练完全解耦。智能体持续响应的同时,评分与优化流程在后台并行运行。
🚀 快速开始
1. 安装
OpenClaw(一键安装): 使用 v0.4.0 版本——运行下方代码片段,然后执行 metaclaw setup 和 metaclaw start。更多详情(Windows系统、镜像源、配置、故障排除):extensions/metaclaw-openclaw/README.md。
curl -LO https://github.com/aiming-lab/MetaClaw/releases/download/v0.4.0/metaclaw-plugin.zip
unzip metaclaw-plugin.zip -d ~/.openclaw/extensions
openclaw plugins enable metaclaw-openclaw && openclaw gateway restart
pip(PyPI 或此仓库):
pip install -e . # skills_only mode (lightweight)
pip install -e ".[rl]" # + RL training support (torch, transformers, tinker)
pip install -e ".[evolve]" # + skill evolution via OpenAI-compatible LLM
pip install -e ".[scheduler]" # + Google Calendar integration for scheduler
pip install -e ".[rl,evolve,scheduler]" # recommended for full RL + scheduler setup
(可选)微信集成使用官方的 @tencent-weixin/openclaw-weixin 插件。启用微信功能时,MetaClaw 会自动安装该插件:
metaclaw config wechat.enabled true
metaclaw start
该插件在 metaclaw start 上会自动安装。您也可以手动安装:
npx -y @tencent-weixin/openclaw-weixin-cli@latest install
要切换微信账号(使用新二维码重新登录):
metaclaw start --wechat-relogin
若需运行 rl.backend=mint,请在相同环境中单独安装 MinT 兼容包,例如 mindlab-toolkit。类似地,对于 rl.backend=weaver,请单独安装 nex-weaver。MetaClaw 默认不包含这些依赖,以便强化学习用户能明确选择 Tinker、MinT 或 Weaver。
2. 配置
metaclaw setup
交互式向导将引导您完成以下步骤:
- 选择您的个人智能体 —
openclaw、copaw、ironclaw、picoclaw、zeroclaw、nanoclaw、nemoclaw或none(MetaClaw 将在启动时自动配置) - 选择您的认证方式 —
api_key(直接 API)或oauth_token(CLI 子进程) - 选择您的 LLM 服务提供商:
- api_key:Kimi、Qwen、OpenAI、火山引擎或自定义 → 输入 API 基础地址 + API 密钥
- oauth_token:Anthropic(Claude Code)、OpenAI Codex 或 Gemini CLI → 粘贴 OAuth 令牌
- 输入您的模型 ID 并可选启用强化学习训练
MetaClaw 的强化学习路径可在 tinker、mint 和 weaver 之间显式切换。auto 是推荐的默认选项,当相应软件包已安装时,会根据凭证、基础 URL 或环境变量自动推断后端。
调试验用:
metaclaw config rl.backend tinker
metaclaw config rl.api_key sk-...
metaclaw config rl.model moonshotai/Kimi-K2.5
MinT:
metaclaw config rl.backend mint
metaclaw config rl.api_key sk-mint-...
metaclaw config rl.base_url https://mint.macaron.xin/
metaclaw config rl.model Qwen/Qwen3-4B-Instruct-2507
Weaver:
metaclaw config rl.backend weaver
metaclaw config rl.api_key sk-...
metaclaw config rl.base_url https://weaver-console.nex-agi.cn
metaclaw config rl.model Qwen/Qwen3-8B
传统别名 rl.tinker_api_key 和 rl.tinker_base_url 仍被接受以保持向后兼容性。
3. 开始
metaclaw start
就这样。MetaClaw 启动代理,自动配置您选择的个人助手使用该代理,并重启网关。打开您的助手开始聊天——技能会在每次对话时注入,会话结束后会自动总结成新技能。
🦞 多爪支持
MetaClaw 作为透明代理,可工作于任何支持 OpenAI 兼容 LLM 后端的个人助手之前。claw_type 设置告诉 MetaClaw 在启动时要自动配置哪个助手。
claw_type | 助手 | MetaClaw 在 start 时执行的操作 |
|---|---|---|
openclaw | OpenClaw | 运行 openclaw config set models.providers.metaclaw … + gateway restart。使用 anthropic-messages API 格式,以便记忆插件(Hindsight、mem0、memory-lancedb)能正确接收 event.rawMessage。 |
copaw | CoPaw | 将 ~/.copaw/config.json 补丁修改为 models.default → openai_compatible,指向代理端口。CoPaw 的 ConfigWatcher 会自动热重载。 |
ironclaw | IronClaw | 修补 ~/.ironclaw/.env → LLM_BACKEND=openai_compatible + LLM_BASE_URL/MODEL/API_KEY。运行 ironclaw service restart。 |
picoclaw | PicoClaw | 向 ~/.picoclaw/config.json model_list 注入一个 metaclaw 条目,并将其设为默认模型。运行 picoclaw gateway restart。 |
zeroclaw | ZeroClaw | 修补 ~/.zeroclaw/config.toml → provider = "openai-compatible" + base_url/model/api_key。运行 zeroclaw service restart。 |
nanoclaw | NanoClaw | 修补 nanoclaw 的 .env → ANTHROPIC_BASE_URL,指向代理的 /v1/messages Anthropic 兼容端点。通过 launchctl(macOS)或 systemctl --user(Linux)重启。 |
nemoclaw | NemoClaw | 通过 openshell provider create 在 OpenShell 中注册一个 metaclaw 提供者,并通过 openshell inference set 将其设为活动推理路由。将配置持久化到 ~/.nemoclaw/config.json。 |
hermes | Hermes Agent | 向 ~/.hermes/config.yaml custom_providers 注入一个 metaclaw 条目,并设置 model.provider: custom:metaclaw。运行 hermes gateway restart。 |
none | — | 跳过自动配置。请手动将您的助手指向代理。 |
设置
在 metaclaw setup(向导中的第一个问题)期间选择您的助手:
Personal agent to configure (openclaw/copaw/ironclaw/picoclaw/zeroclaw/nanoclaw/nemoclaw/hermes/none) [openclaw]:
或随时直接设置:
metaclaw config claw_type copaw # switch to CoPaw
metaclaw config claw_type ironclaw # switch to IronClaw
metaclaw config claw_type picoclaw # switch to PicoClaw
metaclaw config claw_type zeroclaw # switch to ZeroClaw
metaclaw config claw_type nanoclaw # switch to NanoClaw
metaclaw config claw_type nemoclaw # switch to NemoClaw
metaclaw config claw_type hermes # switch to Hermes Agent
metaclaw config claw_type none # manual / custom agent
然后像往常一样运行 metaclaw start —— 代理服务器启动,所选代理将自动接入。
手动接入(claw_type=none)
将任何兼容 OpenAI 的客户端指向 MetaClaw 代理服务器:
base_url: http://127.0.0.1:30000/v1
api_key: metaclaw # or whatever proxy.api_key is set to
model: <your model id>
对于Anthropic原生客户端(例如Claude SDK或NanoClaw的凭证代理),请改用Anthropic兼容端点:
ANTHROPIC_BASE_URL: http://127.0.0.1:30000
ANTHROPIC_API_KEY: metaclaw
```---
## ⚙️ 配置
配置信息保存在 `~/.metaclaw/config.yaml` 中,由 `metaclaw setup` 创建。
**命令行指令:**
metaclaw setup # Interactive first-time configuration wizard metaclaw start # Start MetaClaw (default: auto mode) metaclaw start --mode rl # Force RL mode (no scheduler) for this session metaclaw start --mode skills_only # Force skills-only mode for this session metaclaw stop # Stop a running MetaClaw instance metaclaw status # Check proxy health, running mode, and scheduler state metaclaw config show # View current configuration metaclaw config KEY VALUE # Set a config value metaclaw config llm.oauth_token TOKEN # Store OAuth token for current CLI provider metaclaw auth paste-token --provider anthropic # Store OAuth token (anthropic | openai-codex | gemini) metaclaw auth status # Show all stored auth profiles metaclaw uninstall # Remove all MetaClaw data, OpenClaw extension, and pip package
启动 MetaClaw 时,该命令会等待本地代理进入健康状态后才返回。使用 `metaclaw status` 来验证就绪状态,使用 `metaclaw stop` 来停止后台进程。
<details>
<summary><b>完整配置参考(点击展开)</b></summary>
```yaml
mode: auto # "auto" | "rl" | "skills_only"
claw_type: openclaw # "openclaw" | "copaw" | "ironclaw" | "picoclaw" | "zeroclaw" | "nanoclaw" | "nemoclaw" | "hermes" | "none"
llm:
auth_method: api_key # "api_key" | "oauth_token"
provider: kimi # kimi | qwen | openai | minimax | novita | openrouter | volcengine | custom
model_id: moonshotai/Kimi-K2.5
api_base: https://api.moonshot.cn/v1
api_key: sk-...
# oauth_token example (token stored via `metaclaw auth paste-token`):
# auth_method: oauth_token
# provider: anthropic # anthropic | openai-codex | gemini
# model_id: claude-sonnet-4-6
proxy:
port: 30000
api_key: "" # optional bearer token for the local MetaClaw proxy
skills:
enabled: true
dir: ~/.metaclaw/skills # your skill library
retrieval_mode: template # template | embedding
top_k: 6
task_specific_top_k: 10 # cap task-specific skills (default 10)
auto_evolve: true # auto-summarize skills after each session
rl:
enabled: false # set to true to enable RL training
backend: auto # "auto" | "tinker" | "mint" | "weaver"
model: moonshotai/Kimi-K2.5
api_key: ""
base_url: "" # optional backend endpoint, e.g. https://mint.macaron.xin/ for MinT or https://weaver-console.nex-agi.cn for Weaver
tinker_api_key: "" # legacy alias for api_key
tinker_base_url: "" # legacy alias for base_url
prm_url: https://api.openai.com/v1
prm_model: gpt-5.2
prm_api_key: ""
lora_rank: 32
batch_size: 4
resume_from_ckpt: "" # optional checkpoint path to resume training
evolver_api_base: "" # leave empty to reuse llm.api_base
evolver_api_key: ""
evolver_model: gpt-5.2
opd:
enabled: false # set to true to enable OPD (teacher distillation)
teacher_url: "" # teacher model base URL (OpenAI-compatible /v1/completions)
teacher_model: "" # teacher model name (e.g., Qwen/Qwen3-32B)
teacher_api_key: "" # teacher model API key
kl_penalty_coef: 1.0 # KL penalty coefficient for OPD
max_context_tokens: 20000 # prompt token cap before truncation; 0 = no truncation (recommended
# for skills_only mode with large-context cloud models)
context_window: 0 # context window advertised to the agent (e.g. OpenClaw compaction
# threshold); 0 = auto (200 000 in skills_only, 32 768 in rl/auto)
scheduler: # v0.3: meta-learning scheduler (auto-enabled in auto mode)
enabled: false # auto mode enables this automatically; set manually for rl mode
sleep_start: "23:00"
sleep_end: "07:00"
idle_threshold_minutes: 30
min_window_minutes: 15
calendar:
enabled: false
credentials_path: ""
token_path: ""
💪 技能模式
metaclaw start --mode skills_only
最轻量级的模式。无需 GPU,无需 RL 后端。MetaClaw 将您的 LLM 置于代理之后,在每一轮对话中注入相关技能,并在每次对话后自动总结新技能。
对于 OpenAI 兼容的自定义提供商,请将 llm.api_base 设置为完整的聊天 API 基础地址(通常以 /v1 结尾,例如 https://your-gateway.example/v1)。在 skills_only 模式下,除非您配置了单独的进化器端点,否则 MetaClaw 会复用同一端点进行提示压缩和相关的辅助 LLM 调用。
技能是以 Markdown 格式存储的简短指令,位于 ~/.metaclaw/skills/ 目录中,每个技能是一个单独的 SKILL.md 文件。技能库会随着您的使用自动增长。
要预加载内置技能库(涵盖编程、安全、代理任务等 40 多种技能):
cp -r memory_data/skills/* ~/.metaclaw/skills/
```---
## 🔬 RL 模式
**`metaclaw start --mode rl`**
包含技能模式的所有功能,并增加了基于实时对话的持续强化学习微调。每个对话轮次都会被标记化并作为训练样本提交。一个评判大语言模型(PRM)会异步对回复进行评分,而兼容 Tinker 的后端(Tinker 云、MinT 或 Weaver)会运行支持热插拔权重的 LoRA 微调。
**Tinker**:
```bash
metaclaw config rl.backend tinker
metaclaw config rl.api_key sk-...
metaclaw config rl.model moonshotai/Kimi-K2.5
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rl
MinT:
metaclaw config rl.backend mint
metaclaw config rl.api_key sk-mint-...
metaclaw config rl.base_url https://mint.macaron.xin/
metaclaw config rl.model Qwen/Qwen3-4B-Instruct-2507
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rl
Weaver:
metaclaw config rl.backend weaver
metaclaw config rl.api_key sk-...
metaclaw config rl.base_url https://weaver-console.nex-agi.cn
metaclaw config rl.model Qwen/Qwen3-8B
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rl
一个专门的进化器LLM还会从失败的尝试中提取新技能,将其反馈至技能库。
程序化运行(无需OpenClaw TUI):将openclaw_env_data_dir设置为JSONL任务文件的目录:
{"task_id": "task_1", "instruction": "Register the webhook at https://example.com/hook"}
策略蒸馏(OPD)
OPD是强化学习模式的可选附加组件。它通过策略内蒸馏将更大的教师模型知识迁移至学生模型:学生模型照常生成响应,而教师模型则针对相同响应提供逐词元的对数概率。通过KL散度惩罚项引导学生模型向教师模型的概率分布靠拢。
metaclaw config opd.enabled true
metaclaw config opd.teacher_url http://localhost:8082/v1
metaclaw config opd.teacher_model Qwen/Qwen3-32B
metaclaw config opd.kl_penalty_coef 1.0
教师模型必须部署在兼容 OpenAI 的 /v1/completions 端点后方(例如 vLLM、SGLang)。OPD 可与 PRM 评分结合使用,两者均以异步方式运行。详见 examples/run_conversation_opd.py 与 scripts/run_openclaw_tinker_opd.sh。
🧠 自动模式(默认)
metaclaw start
包含 RL 模式的所有功能,并额外配备元学习调度器——该调度器会将权重更新推迟至用户非活跃时段执行,从而确保智能体在用户主动使用期间永不中断。
RL 权重热替换步骤会使智能体暂停数分钟。与 RL 模式在批次填满时立即训练不同,自动模式会等待合适的时机进行更新。
满足以下任一条件即触发更新窗口:
- 睡眠时段:可配置起止时间(例如 23:00 至 07:00)
- 键盘无操作:空闲时长达到 N 分钟后触发
- Google 日历事件:检测会议安排,以便在您离开时执行更新
metaclaw config scheduler.sleep_start "23:00"
metaclaw config scheduler.sleep_end "07:00"
metaclaw config scheduler.idle_threshold_minutes 30
# Optional: Google Calendar integration
pip install -e ".[scheduler]"
metaclaw config scheduler.calendar.enabled true
metaclaw config scheduler.calendar.credentials_path ~/.metaclaw/client_secrets.json
若用户在中途更新后返回,系统会保存部分批次,并在下一个窗口恢复处理。
每个 ConversationSample 都标记有 skill_generation 版本。当技能演化推动生成版本升级时,强化学习缓冲区会被清空,以确保仅使用演化后的样本进行梯度更新(支持 MAML 的训练集/查询集分离机制)。
🧠 记忆系统
MetaClaw v0.4.0 新增了与技能层并行的长期记忆层。技能层专注于掌握如何执行操作,而记忆层则负责记录已发生的内容——包括用户偏好、项目状态、重复出现的上下文以及跨会话的事实信息。
运行机制
在每次会话结束时,MetaClaw 会从对话中提取结构化的记忆单元并存储在本地。在后续交互时,系统会检索相关记忆并将其与技能描述一同注入提示词中——这使得智能体能记住您之前的工作内容,无需您重复说明。
记忆系统完全在后台运行。基础使用无需额外配置;当 memory.enabled 设置为 true 时,该功能将自动激活。
metaclaw config memory.enabled true
内存类型
| 类型 | 捕获内容 |
|---|---|
episodic | 具体的过往事件与操作 |
semantic | 关于用户或项目的通用事实 |
preference | 用户明确声明或推断出的偏好 |
project_state | 当前目标、待办任务、近期决策 |
working_summary | 近期活动的滚动摘要 |
配置
memory:
enabled: false
top_k: 5 # memories injected per turn
max_tokens: 800 # token budget for memory block
retrieval_mode: hybrid # keyword | semantic | hybrid
consolidation_interval: 10 # consolidate every N sessions
store_path: ~/.metaclaw/memory # local storage path
内存侧车服务(可选)
对于需要进程隔离的部署场景,MetaClaw 附带了一个独立的内存侧车服务(openclaw-metaclaw-memory)。配置启用后,主代理将通过本地 HTTP API 将所有内存读写操作委托给该侧车服务处理。
metaclaw config memory.sidecar_url http://127.0.0.1:30001
```---
## 📊 基准测试
MetaClaw-Bench 用于评估 AI 智能体如何从多日交互历史中学习和适应。它提供了两个数据集变体(30天完整版和12天精简版),并附带一个覆盖全流程的命令行工具——包括验证、推理、评分和报告生成。
关于设置和使用方法,请参阅 [`benchmark/README.md`](benchmark/README.md)。
---
## 🗑️ 卸载
```bash
metaclaw uninstall
此操作将一步完成所有清理:停止运行中的实例,清除 ~/.openclaw/openclaw.json 中的 MetaClaw 引用,删除 ~/.openclaw/extensions/metaclaw-openclaw/,删除 ~/.metaclaw/,卸载 pip 包,并重启 OpenClaw 网关。在执行任何删除操作前,系统将提示您进行确认。
卸载完成后,如果您曾克隆过源码仓库,请手动移除该仓库:
rm -rf /path/to/MetaClaw
```---
## 📚 引用
```bibtex
@article{xia2026metaclaw,
title={MetaClaw: Just Talk An Agent That Meta-Learns and Evolves in the Wild},
author={Xia, Peng and Chen, Jianwen and Yang, Xinyu and Tu, Haoqin and Liu, Jiaqi and Xiong, Kaiwen and Han, Siwei and Qiu, Shi and Ji, Haonian and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Yao, Huaxiu},
journal={arXiv preprint arXiv:2603.17187},
year={2026}
}
```---
## 🙏 致谢
MetaClaw 基于以下开源项目构建:
- [OpenClaw](https://openclaw.ai) – 主要支持的个人智能体。
- [CoPaw](https://github.com/agentscope-ai/CoPaw) – 多通道个人智能体支持。
- [IronClaw](https://github.com/nearai/ironclaw) – Rust 原生个人智能体支持。
- [NanoClaw](https://github.com/qwibitai/nanoclaw) – 容器隔离的 Anthropic 原生个人智能体。
- [NemoClaw](https://github.com/NVIDIA/NemoClaw) – 基于 NVIDIA OpenShell 沙箱的个人智能体,支持 NIM 推理。
- [SkillRL](https://github.com/aiming-lab/SkillRL) – 我们的技能增强强化学习框架。
- [Tinker](https://www.thinkingmachines.ai/tinker/) – 用于在线强化学习训练。
- [MinT](https://github.com/MindLab-Research/mindlab-toolkit) – 在线强化学习训练的替代后端。
- [Weaver](https://github.com/nex-agi/weaver) – 在线强化学习训练的替代后端。
- [OpenClaw-RL](https://github.com/Gen-Verse/OpenClaw-RL) – 我们强化学习设计的灵感来源。
- [awesome-openclaw-skills](https://github.com/VoltAgent/awesome-openclaw-skills) – 为我们技能库提供了基础。
---
## 📄 许可证
本项目基于 [MIT License](LICENSE) 许可证授权。