問題: AI Agent 執行多步驟工作流程——程式碼審查、資料管線、事件回應——但沒有標準方式來定義它們應該做什麼或記錄它們實際做了什麼。最多得到一份聊天記錄。祝你審計順利。
OSOP 是兩種 YAML 格式:
.osop— .osop — 工作流程定義。節點(16 種類型:agent、tool、CLI、API、人工閘門等)+ 邊(13 種模式:循序、平行、條件、回退、衍生等)。可視為 Agent 行為的 DAG。.osoplog— .osoplog — 執行記錄。實際發生了什麼:時間戳記、持續時間、token 數量、工具呼叫、輸入/輸出、錯誤狀態。每次執行一個日誌。
兩者共同形成封閉迴圈:定義、執行、記錄、最佳化。
快速範例(.osop)
pr-review.osop.yaml
Run Lintercicd
↓sequential→ AI Review
AI Reviewagent
↓sequential→ Human Approval
Human Approvalhuman
示範: osop-editor.vercel.app — osop-editor.vercel.app — 拖放任何 .osop 檔案以視覺化。你會得到節點圖、風險分析、逐步執行重播(如果你也載入 .osoplog),以及多 Agent 工作流程的子 Agent 追蹤。
為什麼不用 X?
- BPMN — BPMN — 為 2004 年的企業業務流程而設計。基於 XML,規格龐大,沒有 LLM 呼叫或 token 預算的概念。
- OpenTelemetry — OpenTelemetry — 基礎設施級可觀測性(span、trace)。不定義工作流程應該做什麼,只記錄系統層面發生了什麼。
- Oracle Agent Specification — Oracle Agent Specification — 基於 YAML 的 Agent 定義,類似領域。但沒有執行記錄(.osoplog),沒有內建風險分析,沒有人在迴圈中的閘門,沒有自我最佳化迴圈。
- GitHub Actions / Temporal / Prefect — GitHub Actions / Temporal / Prefect — 優秀的工作流程引擎,但專有格式與其執行環境綁定。OSOP 與執行環境無關。
EU AI Act 角度
第 19 條要求高風險 AI 系統的「自動生成日誌」。.osoplog 是結構化、機器可讀的,並且準確捕捉監管機構所需的資訊——使用的模型、輸入、輸出、人工監督點。合規作為副產品。
目前已有
- Spec v1.0(JSON Schema 驗證)
- 視覺編輯器(React 19,已上線 osop-editor.vercel.app)
- Python CLI(pip install osop)— 驗證、渲染、執行
- JS/TS SDK 和 Python SDK
- GitHub Action 用於 CI 驗證
- 39+ 個工作流程範例
- 18 個平台整合(Cursor、Codex、Windsurf、Claude Code、Copilot 等)
全部開源,Apache 2.0。
GitHub: github.com/Archie0125
Ask HN: 你們用什麼工作流程格式來管理 AI Agent?我們研究了整個領域,大多數團隊似乎要麼使用與其編排框架綁定的專有格式,要麼就是用非結構化日誌湊合。很好奇其他人嘗試了什麼。