pi-mono 学习 03|pi-ai 的输入输出:事件流、最终消息与可重放上下文

这篇写什么

聚焦 pi-ai 的统一输入输出协议:为什么要把输出分成“事件流”和“最终消息”,以及为什么“可重放性”是 agent 系统的关键约束。

先说结论

pi-ai 的核心价值是:把多厂商模型调用统一成一套对 agent 友好的输入输出协议。

对 agent 友好意味着它要覆盖:

  • 多轮上下文
  • 工具调用
  • 流式增量输出
  • thinking/reasoning
  • usage/cost
  • 失败与中断
  • 跨模型继续对话

统一输入:上层真正需要表达的只有四类

  1. 用哪个模型
  2. 当前上下文是什么
  3. 这轮可以用哪些工具
  4. 这轮调用的运行参数是什么

模型输入不是字符串

模型对象应携带能力与调用语义:provider、协议类型、上下文窗口、是否支持 reasoning/多模态、成本与兼容配置等。

上下文输入不是单一 prompt

必须能表达 system 指令、历史消息、tool result 历史、以及多模态内容块。

工具输入必须结构化

工具是一组能力清单(名称/描述/参数 schema),而不是靠纯文本提示“你可以用这些工具”。

运行参数与上下文分层

运行参数影响执行方式(温度、max tokens、abort、transport、metadata…),但不应污染上下文语义。

统一输出:为什么要两层

1) 过程层:事件流

事件流用于表达进行中的状态变化,例如:

  • 文本增量
  • thinking 增量
  • tool call 及参数增量
  • 结束或错误

价值:UI 可实时渲染,runtime 可在 tool call 完整时接管执行。

2) 结果层:最终消息

最终消息是“这轮调用的官方结算单”:

  • 完整 assistant 内容(可能包含 text/thinking/tool call 等内容块)
  • 来源信息(provider/model/协议)
  • usage/cost
  • stop reason
  • error(如有)

价值:便于落库、回放、续接会话、统计分析。

为什么必须强调可重放性

一句话:输出最终要能够回流为下一轮输入。

这看起来简单,但现实里要面对:

  • thinking/reasoning 可能无法跨模型无损重放
  • tool call 标识或格式在不同 provider 下可能不兼容
  • aborted/error 消息是否应进入历史

因此设计要允许:

  • 表达 thinking/tool call
  • 同时不假设它们一定能跨模型原样重放
  • 必要时降级、剔除或转换

stop reason 为什么必须标准化

不同 provider 的结束语义很不统一,但上层真正关心的是:

  • 是否自然结束
  • 是否需要执行工具
  • 是否长度截断
  • 是否错误或中断

标准化 stop reason 是 agent runtime 决策(继续/停止、补救、重试)的关键依据。

小结

pi-ai 输入侧统一“模型 + 上下文 + 工具 + 运行参数”,输出侧统一“事件流 + 最终消息”,并把“可重放性”作为设计约束。

这些是它能支撑 agent 系统稳定多轮运行的骨架。

Read more

传统 SaaS 转向 AI 时代,我目前的一点理解:先把数据能力变成 Agent 可调用的基础设施

最近我一直在思考一个问题:传统 SaaS 到底应该怎么转向 AI? 一开始很容易想到的方向是:给原来的系统加一个 AI 助手。 比如在页面右下角放一个聊天框,让用户可以问数据、生成报告、总结内容、解释指标。这个当然有价值,但我现在越来越觉得,这只是比较表层的一种转型。 真正的变化,可能不是“在 SaaS 里面加 AI”,而是 SaaS 本身的能力形态发生变化。 过去的 SaaS,核心是给人使用。 人登录系统,看页面、点按钮、筛选数据、导出报表、判断问题,然后再去做决策。数据库是给 Web 页面供数的,后端 API 是给前端页面服务的,整个产品的中心是“人如何操作软件”。 但 AI 时代,尤其是 Agent 逐渐发展之后,

By ladydd

对 Python 应用场景的一次重新思考:FastAPI、协程、线程、数据库与任务系统边界

最近在重新设计一个任务系统时,我顺便把自己对 Python,尤其是 CPython 应用场景的理解重新梳理了一遍。 这次讨论的背景是一个典型的异步任务服务: 上游提交任务 API 立即返回 task_id 后台 worker 慢慢执行 用户通过 task_id 查询任务状态 任务主要是 LLM 调用、图片下载、外部 HTTP 请求这类 I/O 型工作。 一开始关注的是队列、Redis、PostgreSQL、worker 并发控制这些问题。但聊到后面,其实更核心的问题变成了: Python 到底应该放在什么位置? 哪些并发适合 Python? 哪些并发不要硬塞给 Python? FastAPI、协程、线程、数据库之间应该怎么分工? 这篇文章就是这次思考的整理。 一、我不想抛弃 Python,

By ladydd

Go 和 Python 的并发模型对比:进程、线程、协程、并发和并行到底怎么理解?

最近我在写 worker 任务系统的时候,重新理解了一遍 Python 和 Go 的并发差异。 以前写 Python,多 worker 经常要考虑: 多进程怎么管理? 日志会不会串? 一个 worker 崩了怎么办? 怎么吃满多核心? 后来换成 Go,发现一个进程里开多个 goroutine worker 就很自然: go worker(1) go worker(2) go worker(3) go worker(4) 日志也好管,状态也好管,而且单进程还能利用多个 CPU 核心。 一开始很容易误会成: Python 不行,Go 行 但更准确的理解应该是: Python 和

By ladydd

Python 进程和 Go 进程的区别:为什么 Go 单进程多 worker 用起来更爽?

最近我在做 worker 任务系统的时候,突然意识到一个很关键的问题: 以前写 Python,多 worker 的时候经常要小心日志串、文件切割乱、时间不好管理。 但是换成 Go 以后,一个进程里开多个 goroutine worker,反而可以比较自然地写到同一个日志文件里。 一开始我以为这是“Python 和 Go 写日志能力不一样”,后来想明白了,核心不是日志本身,而是: Python 常见 worker 模型:多进程 Go 常见 worker 模型:单进程 + 多 goroutine 这背后其实是两个语言在并发模型上的巨大差异。 一、进程、线程、goroutine 先分清楚 先把几个概念捋一下。 进程:操作系统分配资源的单位 线程:CPU 调度执行的基本单位

By ladydd
陕公网安备61011302002223号 | 陕ICP备2025083092号