首页 n8n教程 LLM Agent 如何理解用户意图?指令跟随如何精准执行?

LLM Agent 如何理解用户意图?指令跟随如何精准执行?

作者: Dr.n8n 更新时间:2025-12-10 06:00:43 分类:n8n教程

“它怎么又理解错了?”——LLM Agent 的意图识别困局

上周帮一家跨境电商客户调试他们的自动客服 Agent,用户问:“我想退掉昨天买的红色连衣裙”,结果系统却回复了一堆“如何穿搭红色连衣裙”的攻略。老板当场黑脸:“这玩意儿是人工智障吧?”

别笑,你搭建的 n8n 工作流里,是不是也常遇到“明明指令写得很清楚,Agent 却执行得驴唇不对马嘴”?问题不在模型智商,而在你没给它装上“意图翻译器”。

LLM 不是读心术士,它是“语境拼图师”。你给的每一条指令,都是它拼出用户意图的一块碎片。碎片越模糊、越零碎,拼出来的图就越离谱。

拆解黑盒:LLM 是如何“猜中”你心思的?

想象你在教一个刚入职的实习生处理客户邮件。你不会只说“处理一下”,而是会给他:

  • 一份《常见问题分类手册》(意图识别模板)
  • 几个典型对话案例(Few-shot 示例)
  • 一张“禁止踩雷清单”(约束条件)

LLM Agent 的工作原理与此高度相似。当你在 n8n 中调用 OpenAI 节点时,系统其实是在后台悄悄组装一个“超级提示词包”,包含:

  1. 系统角色设定:你是谁?客服?数据分析师?法律顾问?
  2. 当前对话历史:用户之前说了啥?上下文脉络是什么?
  3. 结构化指令:必须返回 JSON 格式、禁止使用专业术语等
  4. 示例样本:输入“我要退款” → 输出 {"intent": "refund", "product": "连衣裙"}

我在给某 SaaS 客户做自动化工单分类时,最初准确率只有 63%。后来我在提示词里加了三行示例,准确率直接飙到 92%。秘诀?用具体打败模糊

实战教学:在 n8n 中构建“零误差”指令执行链

下面这个工作流,是我为电商客户重构后的“高精度退货处理 Agent”。核心在于“三层校验机制”:

// 第一层:意图预过滤
if (userInput.includes('退') || userInput.includes('换')) {
  // 触发深度解析
} else {
  return '您的问题已转接人工客服'
}

// 第二层:结构化提取(关键!)
const schema = {
  type: 'object',
  properties: {
    intent: { enum: ['refund', 'exchange'] },
    product: { type: 'string' },
    order_id: { type: 'string', pattern: '^ORD\d{8}$' }
  },
  required: ['intent', 'product']
};

// 第三层:执行前二次确认
await sendConfirmation(`您要${intentMap[intent]}商品【${product}】吗?回复Y/N`);

注意看第三层的“二次确认”——这是防止 LLM 幻觉的最后一道保险。哪怕模型 99% 确定用户要退货,也要让用户亲手按个“Y”。既规避风险,又提升体验。

三个让 LLM “秒懂你”的黄金法则

法则错误示范正确姿势
具象化“处理用户请求”“当用户说‘退’或‘不要了’,且提及商品名时,触发退款流程”
结构化自由文本输出强制要求 JSON Schema 格式
闭环验证直接执行高风险操作插入“请确认”中间节点

记住:LLM 不是魔法,而是精密仪器。你给它的“操作手册”越细致,它表现得就越像个人类专家。

现在轮到你了

你遇到过最离谱的 LLM 误解案例是什么?是在哪个业务场景下发生的?欢迎在评论区分享你的“翻车现场”——我会挑三个最具代表性的案例,免费帮你重构提示词架构。