OpenClaw 使用记录

OpenClaw 是一个 开源的 AI Agent 自动化执行框架
它的核心目标是让 AI 不仅仅停留在“对话”,而是能够 自动规划任务、调用工具、执行操作并持续迭代完成复杂目标,最近使用下来总结了一些内容。

简单来说,OpenClaw 可以理解为:

一个可以自动写代码、执行命令、分析项目并持续迭代任务的 AI 工程助手。

与普通的 ChatGPT 或 Claude 不同,OpenClaw 的设计目标是:

  • 让 AI 具备任务执行能力
  • 可以 拆解复杂目标
  • 自动 调用工具和执行命令
  • 持续 迭代直到任务完成

因此,它更像是一个 AI 自动化开发助手(AI Software Engineer)

OpenClaw — Personal AI Assistant
OpenClaw — The AI that actually does things. Your personal assistant on any platform.

OpenClaw 的核心能力

OpenClaw 的能力主要体现在 任务规划 + 自动执行 + 工具调用 三个方面。

任务规划(Planning)

当用户给 OpenClaw 一个目标,例如:

“帮我给这个项目增加一个 Redis 缓存”

OpenClaw 会自动进行任务拆解,例如:

  1. 分析项目结构
  2. 找到数据库访问代码
  3. 设计缓存策略
  4. 修改代码
  5. 添加测试
  6. 执行验证

这个过程类似一个 AI 自动生成开发计划

自动执行任务

OpenClaw 不只是给建议,而是可以:

  • 修改代码
  • 创建文件
  • 运行 Shell 命令
  • 安装依赖
  • 执行脚本

例如:

git clone project
npm install
npm run test

AI 可以直接执行这些操作。

工具调用能力

OpenClaw 可以通过 Tool 调用不同能力,例如:

  • 文件系统
  • Shell
  • Git
  • HTTP API
  • 编译工具
  • 测试框架

OpenClaw 的缺陷

虽然 OpenClaw 很强,但目前仍然存在一些明显问题。

非常依赖模型能力

OpenClaw 的能力 高度依赖底层模型

如果模型能力不够:

  • 任务规划能力会下降
  • 代码质量下降
  • 执行容易出错

因此很多时候:

Agent能力 ≈ 模型能力

如果模型弱,OpenClaw 也会变得“很傻”。

Token 成本问题

Agent 系统通常需要:

  • 多轮思考
  • 多次调用模型
  • 持续上下文

对Token的消耗非常高,每次都携带了大量上下文进行模型调用,就算调优也只是减少部分开销,或者替换便宜的模型,但便宜的模型替换又会导致上面的问题,OpenClaw变得完全不可靠,不可控。

总体来说

OpenClaw 是一个非常有潜力的 AI Agent 框架

优点:

  • 自动任务规划
  • 自动执行能力
  • 可扩展的 Agent 架构

缺点:

  • 非常依赖模型
  • Token 成本较高 (模型调用非常高,复杂任务能力完全取决于模型)
  • 执行过程不透明 (非常严重,执行过程完全不透明,需要配合控制平台一起监控才行)

因此它目前更适合:

  • AI 自动化开发
  • DevOps 自动化
  • AI Agent 实验

但如果结合:

  • 强模型
  • 可视化系统
  • Agent 管理平台

未来可能会成为:

AI 自动化团队的核心基础设施。

文章目录

随心笔记

技术无止境 创新不停驻