Skip to content
Wen's Blog

从0到1做 AI 客服:有赞这条路到底怎么走通的

Mar 1, 2026 — AI, Agents, Reading

AI 客服最容易做错的一件事,是把“能答出来”误当成“能上线”。有赞这篇复盘的价值,就在于它把从黑客马拉松 Demo 走到线上系统的那条路拆得很实:先验证需求,再拆主干,再补治理。

如果只看表面,这是一篇关于 Dify、Workflow、模型选型和知识库建设的实践记录。往下看会发现,真正的核心只有一句话:客服系统首先是风险系统,其次才是生成系统。

先把业务边界定死,再决定系统怎么长

原文里最重要的判断,我认为是“宁可不答,也不能答错”。这不是一句保守口号,而是整个架构的起点。客服场景里,少答通常损失承接率,错答却可能直接变成退款、投诉和信任流失。只要把这个前提立住,很多设计选择就顺了。

所以有赞不是先问“怎么把模型能力压榨到最大”,而是先问“哪些问题允许开放回答,哪些问题必须被护栏约束”。售前咨询、导购推荐、轻度问答可以给模型更多空间;售后、退款、物流、权益解释这些高风险链路,则更需要流程明确、信息来源明确、节点职责明确。

我更愿意把这种做法理解成先给 AI 客服画责任边界,而不是先给它堆能力。边界画不清,承接率越高,后面返工越重。

平台跑通 PMF,主干再回到工程系统

原文里还有一点很实在:第一个版本并没有执着于“纯工程化”。他们最早是靠内部 Dify 把东西搭起来,快速验证 PMF。这个取舍很对,因为从 0 到 1 的阶段,最大的风险往往不是技术不优雅,而是你花了大力气把系统做重,最后发现需求根本站不住。

但平台方案的上限也很快暴露了。文中直接点到了几个典型问题:代码节点性能、知识检索实时性、发布和版本管理规范、线上运维能力。这些问题一旦出现,就说明平台更适合当孵化器,而不是长期承载核心链路。

有赞给出的路径不是“平台全撤,自研重来”,而是混合架构:

这条路线的关键,不是技术选型本身,而是迁移节奏。系统如果从一开始就按“哪些环节将来要抽离”来设计,后面就还有转身空间。

Workflow 负责确定性,Agent 只在局部拿弹性

很多团队现在一做智能客服就想直接上 Agent,这篇文章反而把顺序倒过来了。先用 Workflow 搭稳定流程,再逐步引入 Agent 处理不确定部分。我认为这是对客服场景很负责任的做法。

原文里提到,他们在项目早期就选择了更保守的路径:先追求确定、可控的结果,而不是追求高度自主。到后面为了降本和提承接率,再拆节点、换模型、分售前售后流程。这里面有一个很现实的经验:AI 系统的复杂度不是一下子设计出来的,而是在真实 bad case 里长出来的。

这也解释了为什么 Workflow 和 Agent 不是替代关系。Workflow 适合把主干流程钉住,比如意图识别、分流、售前售后路由、关键信息注入;Agent 更适合接那些允许开放探索、但又不直接越过业务红线的局部任务。先稳主干,再给局部弹性,这是客服场景比较像工程系统的解法。

模型、上下文、知识、评测,必须按部件治理

原文后半段其实比前面更有价值,因为它开始进入真正会决定系统寿命的部分。

先说模型。文章里提到几个很朴素但很有用的经验:选对模型比长时间抠 Prompt 更重要;模型输出越短,速度和成本通常越可控;模型一旦频繁切换,后续评估和调整成本会被放大。这些话听着不花哨,但都属于线上团队真正会遇到的账。

再说上下文工程。有赞不是把所有资料都塞给模型,而是围绕信息获取、筛选提纯和结构化组装去做。他们区分静态知识和实时信息,区分商品知识、历史对话知识和文档知识,还在信息组装上引入了结构化上下文来减少幻觉。我比较认可这条路,因为客服问题本来就不是“知识越多越好”,而是“命中的知识越准越好”。

知识工程的部分也很实。商品知识可以提前抽取和分块,动态库存和物流状态必须实时查,历史对话知识要单独清洗和召回,文档切片参数像 chunk_size=600chunk_overlap=100 这种看似细节的东西,最后都会变成线上效果。

最后是评测。原文把评测对象、数据集、指标和反馈优化都单列出来,这点非常对。客服系统不是一套写完即止的流程,它会持续被模型更新、提示词变化、知识库变动和业务策略影响。没有 Goodcase/Badcase、没有场景级评测、没有“问题识别 -> 根因分析 -> 优化迭代”的闭环,系统后面只会靠体感维护。

真正的难点,最后会落到协作方式上

这篇文章结尾提到的协作变化,我觉得特别值得记下来。AI 项目里,Prompt、Context 和业务逻辑会高度耦合,协作不再是“接口交付给下游”那么简单,而是产品、研发、测试一起迭代提示词、流程、知识和评测。

这意味着很多传统职责边界会变模糊。产品不再只写需求,研发不再只写代码,测试也不再只验收结果。每个人都得参与到“系统为什么会这样回答”的讨论里。说到底,AI 客服不是接了大模型就完成了,它更像是在原有客服系统上叠了一层持续演化的概率逻辑。

如果让我压成一句话,这篇实践真正讲清楚的是:AI 客服从 0 到 1,不是做出一个会回答问题的东西,而是把回答能力变成一套能迁移、能回归、能协作的工程系统。