OpenCLI 学习 04:Harness 目录与文件分工

1. 为什么我在这一部分容易混乱

因为一个 harness 目录里通常会同时出现:

  • 设计文档
  • README
  • Skill
  • CLI 入口
  • core 业务模块
  • utils 后端桥接
  • tests

如果不先按职责区分,很容易把这些文件都看成“某种说明文档”或者“某种脚本入口”。

2. 一个标准 harness 的结构

我目前可以把一个标准 harness 粗略理解成:

<software>/
└── agent-harness/
    ├── <SOFTWARE>.md
    ├── setup.py
    └── cli_anything/
        └── <software>/
            ├── __main__.py
            ├── README.md
            ├── <software>_cli.py
            ├── core/
            ├── utils/
            ├── tests/
            └── skills/

3. 每一层是干什么的

<SOFTWARE>.md

例如:

  • GIMP.md
  • LIBREOFFICE.md

它不是主要给 Agent 调用时读的。

它更像:

  • 设计分析文档
  • 软件专项 SOP
  • 说明为什么 harness 要这样设计

通常会写:

  • 软件本体怎么工作
  • GUI 操作怎么映射到 CLI
  • 为什么选这种后端策略
  • 项目模型如何设计

所以它更偏开发者/维护者视角。

setup.py

它负责:

  • 包怎么安装
  • 安装后命令叫什么
  • 依赖有哪些

也就是把这个 harness 变成一个真正可安装的 CLI 工具。

README.md

这是给人类用户看的使用说明。

通常会写:

  • 怎么安装
  • 怎么运行
  • 有哪些命令
  • 示例命令是什么

所以它偏“人类可读”。

<software>_cli.py

这是最关键的运行入口文件。

它负责:

  • 定义命令树
  • 定义参数
  • 解析 CLI 输入
  • 调用 core
  • 输出结果
  • 处理错误

所以它不是“说明怎么用”的文档,而是:

真的被执行的 CLI 入口代码。

core/

这是业务逻辑层。

里面一般按领域拆模块,例如:

  • document.py
  • writer.py
  • export.py
  • session.py

它负责真正的数据处理、状态变化、业务规则和导出策略。

utils/

这是工具层和后端桥接层。

最关键的通常是 backend 文件,例如:

  • gimp_backend.py
  • lo_backend.py

它负责:

  • 找真实软件
  • 组装命令
  • 调用 subprocess
  • 检查输出文件

所以它是 harness 和真实软件之间的桥。

tests/

测试目录一般包括:

  • test_core.py
  • test_full_e2e.py
  • TEST.md

作用分别是:

  • 单元测试
  • 端到端测试
  • 测试计划与测试结果记录

这部分是为了证明 harness 不是“看起来能用”,而是真的可验证。

skills/SKILL.md

这个才是真正偏给 Agent 读的说明文档。

它主要告诉 Agent:

  • 这个 harness 是干什么的
  • 适合什么场景
  • 什么时候应该调用
  • 有哪些命令组
  • 调用时有哪些注意事项

所以它更偏 Agent 视角。

4. 我目前对三个关键文档的区分

<SOFTWARE>.md

  • 回答:为什么这样设计
  • 偏开发/维护视角

README.md

  • 回答:人类怎么使用
  • 偏用户视角

SKILL.md

  • 回答:Agent 什么时候该调用、如何调用
  • 偏 Agent 视角

5. 我目前对 <software>_cli.py 的理解

它不是文档,而是执行入口。

也就是说,当用户或 Agent 真的输入:

cli-anything-libreoffice export render report.pdf

最后就是 libreoffice_cli.py 里对应的命令函数被执行。

所以它负责的是:

  • 接受命令
  • 调用业务逻辑
  • 返回结果

6. 当前我的一句话总结

一个 harness 目录本质上是在把“设计说明、运行入口、业务逻辑、后端桥接、测试验证、Agent 说明”打包到一起。

而我现在最重要的区分是:

  • <SOFTWARE>.md 不是给 Agent 主要调用时读的
  • SKILL.md 才是更偏给 Agent 使用的说明
  • <software>_cli.py 是真正执行命令的入口代码

Read more

传统 SaaS 转向 AI 时代,我目前的一点理解:先把数据能力变成 Agent 可调用的基础设施

最近我一直在思考一个问题:传统 SaaS 到底应该怎么转向 AI? 一开始很容易想到的方向是:给原来的系统加一个 AI 助手。 比如在页面右下角放一个聊天框,让用户可以问数据、生成报告、总结内容、解释指标。这个当然有价值,但我现在越来越觉得,这只是比较表层的一种转型。 真正的变化,可能不是“在 SaaS 里面加 AI”,而是 SaaS 本身的能力形态发生变化。 过去的 SaaS,核心是给人使用。 人登录系统,看页面、点按钮、筛选数据、导出报表、判断问题,然后再去做决策。数据库是给 Web 页面供数的,后端 API 是给前端页面服务的,整个产品的中心是“人如何操作软件”。 但 AI 时代,尤其是 Agent 逐渐发展之后,

By ladydd

对 Python 应用场景的一次重新思考:FastAPI、协程、线程、数据库与任务系统边界

最近在重新设计一个任务系统时,我顺便把自己对 Python,尤其是 CPython 应用场景的理解重新梳理了一遍。 这次讨论的背景是一个典型的异步任务服务: 上游提交任务 API 立即返回 task_id 后台 worker 慢慢执行 用户通过 task_id 查询任务状态 任务主要是 LLM 调用、图片下载、外部 HTTP 请求这类 I/O 型工作。 一开始关注的是队列、Redis、PostgreSQL、worker 并发控制这些问题。但聊到后面,其实更核心的问题变成了: Python 到底应该放在什么位置? 哪些并发适合 Python? 哪些并发不要硬塞给 Python? FastAPI、协程、线程、数据库之间应该怎么分工? 这篇文章就是这次思考的整理。 一、我不想抛弃 Python,

By ladydd

Go 和 Python 的并发模型对比:进程、线程、协程、并发和并行到底怎么理解?

最近我在写 worker 任务系统的时候,重新理解了一遍 Python 和 Go 的并发差异。 以前写 Python,多 worker 经常要考虑: 多进程怎么管理? 日志会不会串? 一个 worker 崩了怎么办? 怎么吃满多核心? 后来换成 Go,发现一个进程里开多个 goroutine worker 就很自然: go worker(1) go worker(2) go worker(3) go worker(4) 日志也好管,状态也好管,而且单进程还能利用多个 CPU 核心。 一开始很容易误会成: Python 不行,Go 行 但更准确的理解应该是: Python 和

By ladydd

Python 进程和 Go 进程的区别:为什么 Go 单进程多 worker 用起来更爽?

最近我在做 worker 任务系统的时候,突然意识到一个很关键的问题: 以前写 Python,多 worker 的时候经常要小心日志串、文件切割乱、时间不好管理。 但是换成 Go 以后,一个进程里开多个 goroutine worker,反而可以比较自然地写到同一个日志文件里。 一开始我以为这是“Python 和 Go 写日志能力不一样”,后来想明白了,核心不是日志本身,而是: Python 常见 worker 模型:多进程 Go 常见 worker 模型:单进程 + 多 goroutine 这背后其实是两个语言在并发模型上的巨大差异。 一、进程、线程、goroutine 先分清楚 先把几个概念捋一下。 进程:操作系统分配资源的单位 线程:CPU 调度执行的基本单位

By ladydd
陕公网安备61011302002223号 | 陕ICP备2025083092号