Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

AI Agent 的局限性:哪些任务不适合交给 Agent 做

AI Agent 很容易让人形成一种直观印象:只要给出目标,它就可以自己理解任务、自己调用工具、自己执行流程,并最终完成工作。

这种想象并不完全错误。Agent 在某些场景中确实非常有价值,尤其适合需要调用外部工具、处理多步任务、允许一定动态决策的工作。

但一旦进入真实业务,就必须首先承认一个前提:

Agent 不是万能执行体,而是一种只适用于特定任务结构的系统形态。

如果任务本身并不适合 Agent,越强调其“自主性”,风险通常越高。

本文将围绕这一点展开,说明哪些任务不适合交给 Agent,以及企业在设计 Agent 时应优先关注哪些边界。

一、先明确:Agent 更擅长处理什么任务

在讨论局限性之前,首先需要明确 Agent 的适用边界。

通常来说,Agent 更适合以下类型的任务:

  • 目标明确,但过程路径可以动态选择
  • 需要调用外部工具或系统
  • 允许一定程度的试错与迭代
  • 对过程完全固定的要求不高
  • 最终结果存在合理范围,而不是唯一标准答案

例如:

  • 搜集资料并整理
  • 查询多个系统后生成摘要
  • 调用工具完成标准动作
  • 在开放信息环境中执行探索性任务

但在企业实践中,常见问题恰恰在于:很多并不属于这一类的任务,也被误交给 Agent 处理。

二、不适合交给 Agent 的第一类任务:高确定性、低容错任务

如果一个任务要求:

  • 每一步都必须严格正确
  • 流程必须完全可预测
  • 一旦出错,后果明显且代价较高

那么它通常不适合直接交给 Agent。

典型场景

  • 财务结算
  • 付款审批
  • 合同最终审定
  • 生产控制指令
  • 权限变更与账号开通
  • 法务、合规、审计中的关键决策动作

为什么不适合

Agent 的本质,是在一定目标约束下进行自主决策。这意味着它天然会带来:

  • 路径不完全固定
  • 调用顺序可能变化
  • 对模糊输入的解释存在差异
  • 对异常情况的处理存在不确定性

而对于高确定性任务来说,组织真正需要的通常不是“自主完成”,而是“按规定准确执行”。

这类任务通常更适合:

  • 固定 Workflow
  • 明确规则引擎
  • 人工审核节点
  • 严格状态机控制

也就是说,越是容错空间极低的任务,越不应将控制权大量交给 Agent。

三、不适合交给 Agent 的第二类任务:责任边界不清的任务

企业中还有一类任务,看起来适合让 Agent 自主处理,但实际上风险更高——那就是责任边界并不明确的任务。

例如

  • 判断某份合同是否可以签署
  • 判断某个客户是否可以特殊放款
  • 判断某项制度是否适用于特殊个案
  • 决定是否允许越权审批
  • 决定内部争议应如何处理

为什么这类任务风险高

因为它们往往不是简单的信息检索或动作执行问题,而是涉及:

  • 权责划分
  • 情境判断
  • 规则解释
  • 风险承担主体

一旦让 Agent 直接做出这类决定,问题不仅在于其判断是否准确,更在于:

最终结果应由谁承担责任。

因此,凡是需要明确责任归属、需要人工签字或需要组织背书的任务,都不适合完全交给 Agent 处理。

四、不适合交给 Agent 的第三类任务:目标本身高度模糊的任务

很多人会认为 Agent 擅长处理模糊任务,但更准确地说,Agent 擅长的是“目标清楚、路径开放”的任务,而不是“目标本身不清楚”的任务。

例如

  • “帮我把这件事处理好”
  • “看看这里有什么问题”
  • “帮我优化一下”
  • “你自己想办法完成”

这类输入的问题,不是执行能力不够,而是任务定义本身就不完整。

为什么不适合

当目标模糊时,Agent 很容易在没有明确约束的情况下自行补全任务理解。这会导致:

  • 目标被误读
  • 执行范围被扩大
  • 结果看似积极,但方向可能已经偏离

因此,在这类场景中,更合理的做法通常不是直接放权,而是先让系统:

  • 追问目标
  • 澄清范围
  • 确认约束条件
  • 明确成功标准

换句话说,模糊目标并不是 Agent 的天然优势,反而常常是其最容易失控的起点。

五、不适合交给 Agent 的第四类任务:要求强可解释性的任务

有些业务场景并不是不能接受错误,而是不能接受“说不清为什么做出这个结果”。

典型场景

  • 风控判断
  • 审计建议
  • 医疗辅助判断
  • 教育评价
  • 人才评估
  • 法律意见支持

为什么不适合直接依赖 Agent

Agent 虽然可以保留部分执行日志,但在多轮推理、多工具调用、多步判断之后,真正导致某个结果的完整链路往往并不总是足够稳定、足够清晰。

而在高可解释性场景中,企业通常更需要的是:

  • 每一步依据清楚
  • 规则边界清楚
  • 数据来源清楚
  • 最终责任清楚

这类任务通常更适合:

  • 固定推理链
  • 强制引用依据
  • 结构化输出
  • 严格的人机协同流程

也就是说,如果“可解释性”比“执行灵活性”更重要,那么 Agent 往往不是首选形态。

六、不适合交给 Agent 的第五类任务:核心系统控制任务

Agent 很适合帮助企业“调工具”,但这并不意味着应该直接赋予它核心系统的高权限控制能力。

例如

  • 修改生产数据库
  • 删除关键文件
  • 批量更改客户主数据
  • 执行高权限运维命令
  • 直接写入财务主表

为什么风险更高

Agent 的一个核心特征,是它会根据上下文自主判断下一步动作。这意味着,一旦权限过大,它不仅可能“调错工具”,还可能“在正确工具上执行错误动作”。

因此,在核心系统场景中,Agent 更适合承担:

  • 读取信息
  • 提供建议
  • 生成草稿
  • 准备操作计划

而不适合承担:

  • 直接执行不可逆操作
  • 持有过高权限
  • 在没有人工确认的前提下写回关键系统

七、为什么企业容易高估 Agent

企业之所以容易对 Agent 形成过高预期,通常来自以下几个原因。

1. 被“自主完成任务”的叙事吸引

“只要告诉它目标,它就能自己完成”这类表达非常有吸引力,但往往会弱化边界设计的重要性。

2. 把 Workflow 和 Agent 混为一谈

很多原本更适合固定流程控制的任务,被误认为适合交给 Agent 自由执行。

3. 把模型能力高估为系统能力

模型会说、会推理,并不意味着整个系统就具备稳定执行复杂业务的能力。

企业中的真实系统通常同时涉及:

  • 数据
  • 权限
  • 流程
  • 工具
  • 审计
  • 异常处理

Agent 只是这套系统中的一种执行方式,而不是整个系统本身。

八、一个更实用的判断标准

如果团队正在判断某项任务是否适合交给 Agent,可以先问以下五个问题:

  1. 这个任务允许一定试错吗?
  2. 这个任务的成功标准是否足够明确?
  3. 即使执行路径发生变化,结果仍然可接受吗?
  4. 出错后果是否可逆、可控?
  5. 是否可以把执行权限控制在安全范围内?

如果其中多个问题的答案是否定的,那么这项任务通常不适合由 Agent 主导执行。

九、更成熟的做法:让 Agent 只承担它擅长的部分

这并不意味着 Agent 没有价值。恰恰相反,Agent 的价值非常明确,只是更适合承担它真正擅长的部分,例如:

  • 检索
  • 协调
  • 调工具
  • 起草
  • 汇总
  • 提供建议

而不应轻易扩展到:

  • 最终决定
  • 高风险执行
  • 权责判断
  • 不可逆操作

在成熟企业系统中,更常见、也更合理的方式是:

让 Agent 负责前半段的信息获取、工具调用与建议生成,再把高风险决策与最终执行交给人工或固定流程兜底。

结语

AI Agent 的局限性,并不主要在于模型“不够聪明”,而在于很多任务从结构上就不适合被交给一个具有自主性的执行体。

最不适合交给 Agent 的,通常包括以下几类任务:

  • 高确定性、低容错任务
  • 责任边界不清的任务
  • 目标高度模糊的任务
  • 强可解释性任务
  • 核心系统控制任务

因此,真正成熟的 Agent 设计,不是“尽可能让它什么都做”,而是:

先判断任务结构是否适合 Agent,再决定自主程度与权限边界。

只有这样,Agent 才更有可能成为企业系统中的效率放大器,而不是新的不确定性来源。