Skip to content
Calvin's Blog

把工单分析 SOP 做成 Skill:用 Copy as fetch 取代脆弱的页面自动化

Mar 3, 2026 — Skills, Agents, Tool, Tutorial

结论先行

如果你的目标是把企业内网中的工单分析流程稳定交给 AI,推荐方案不是让 Agent 反复点击页面,而是把页面里已经验证过的接口请求抽出来复用。

更具体地说:

  1. 人工完成登录,拿到合法会话。
  2. 在 DevTools Network 里 Copy as fetch
  3. 让 Skill 通过 agent-browser eval 执行请求脚本,直接拿 JSON。
  4. 再把结果交给模型做分类、归因和建议生成。

这条路径在工程上更稳,维护成本也更低。

为什么传统页面自动化很难长期可用

工单分析是典型的高频重复任务,但它和公开站点自动化不一样,通常有三个现实约束:

如果用 Playwright 或通用页面操作方案把整条链路自动化,短期可跑,长期容易退化:

问题不在于“AI 不会点按钮”,而在于“把可变 UI 当成主接口”。

关键观察:SPA 的核心是请求,不是页面

多数企业后台都是 SPA。页面里的表格和图表,本质来自接口返回。

所以应该把自动化对象从“页面行为”切换成“请求行为”:

  1. 在页面里完成一次业务查询。
  2. 对对应请求执行 Copy as fetch
  3. 在同一登录态下复现请求并获取结构化数据。

只要页面能展示数据,接口请求通常就能在当前会话里被稳定复现。这个思路把不稳定的交互问题转成了可验证的脚本问题。

一套可落地的 Skill 结构

下面是一个精简但可直接运行的结构:

order-analysis-skill/
├── scripts/
│ ├── check-agent-browser.sh
│ ├── check-cdp.sh
│ └── order-analysis.js
└── SKILL.md

核心执行链路可以压缩为四步:

Terminal window
# 1) 前置检查
sh scripts/check-cdp.sh
sh scripts/check-agent-browser.sh
# 2) 打开目标系统(登录由人工完成)
agent-browser --cdp 9222 open "https://inner.example.com"
# 3) 执行通过 Copy as fetch 得到的请求脚本
OUTPUT_DIR=".output/order-analysis/$(date +%Y%m%d-%H%M%S)"
mkdir -p "$OUTPUT_DIR"
agent-browser --cdp 9222 eval "$(cat scripts/order-analysis.js)" > "$OUTPUT_DIR/order.json"
# 4) 让模型生成分析报告
# 输入: order.json
# 输出: $OUTPUT_DIR/order_report.md

这条路线真正解决了什么

它解决的不是“怎么写一个更聪明的 Agent”,而是“怎么把人类已经跑通的 SOP 固化成机器可重复执行的流程”。

工程收益主要有三点:

对移动端团队的启发

对于 iOS / Android 双端协作场景,这个方法尤其有价值:

这会比“每个角色维护一套独立自动化脚本”更轻量,也更容易在团队内持续演进。

参考资源