← Stamper Knowledge Base
Language:
目录
AIF 技术报告 第一期

LLM Agent 范式转变:

从信息流到信息场

Agent 信息场研究系列 · 2026年2月

"写下一条规则,不过是代表规范的一个符号——而规范是一种力场,它促使社区成员以特定方式行事。"

— Ronald K. Stamper,组织符号学创始人

执行摘要

企业对 AI Agent 的采用已到达拐点。Gartner 预测,到 2026 年底,40% 的企业应用将嵌入任务型 AI Agent——2025 年这一比例还不足 5%。¹ IDC 预测,与 Agentic AI 相关的支出将在 2029 年达到 1.3 万亿美元,超过全球 IT 支出的 26%。² 麦肯锡将这一趋势定性为"自工业革命和数字革命以来最大的组织范式转变"。³

然而,同样是这些机构,也在发出警报。Gartner 警告称,超过 40% 的 Agentic AI 项目将在 2027 年底前被取消,原因是成本失控、商业价值不明确,以及风险管控不足。⁴ 企业管理协会(EMA)2025 年 12 月的研究发现,98% 的 500 人以上企业正在部署 Agentic AI,但 79% 的企业对这些自主系统没有正式的安全策略。⁵

这不是技术问题。这是治理问题——而其根本原因在于:AI Agent 的构建方式与组织的实际运作方式之间,存在根本性的不匹配。

本报告的核心论点是:当前构建 AI Agent 的主流范式——信息流范式——在结构上不足以应对自主、多 Agent 企业系统的治理需求。一个更强大的范式正在浮现:信息场范式,其根基来自数十年的组织符号学研究。理解这一转变,不是学术练习,而是商业领袖评估未来三到五年 AI 治理投资的战略视角。

第一部分:转变的速度——以及为何组织措手不及

AI Agent 从原型走向生产部署的速度,在历史上是罕见的。2024 年,嵌入 Agentic AI 能力的企业软件应用不足 1%。Gartner 预测,这一比例将在 2028 年达到 33%。⁶ Anthropic 对 Claude Code——目前部署最广泛的 Agentic 系统之一——的实证研究显示,Agent 最长运行时间(第 99 百分位)在短短三个月内从 25 分钟翻倍至 45 分钟,超过 40% 的有经验用户已切换至全自动审批模式。⁷

这不仅仅是"AI 变快了"。这代表着 AI 系统性质的质变。Agent 不再是响应查询的工具,而是能够规划、决策、执行并与其他 Agent 交互的自主行动者——往往无需人工逐步审核。正如 Anthropic 研究人员所指出的,Agent 正越来越多地进入医疗、金融服务和网络安全等高风险领域。⁷

组织层面的影响是深远的。麦肯锡描述了正在浮现的"Agentic 组织"——人类与 AI Agent 在动态、自组织的团队中协同工作——其中,一个由十个专业 Agent 组成的"Agent 工厂"可以管理整个 KYC 合规流程,AI 与人类的混合团队可以将核心银行系统现代化的时间和工作量减少 50%。³ 这些不是遥远的未来,而是正在发生的真实部署。

问题在于:组织是在一个为更简单世界设计的范式之上构建了 Agent 基础设施。

第二部分:信息流范式——强大,但结构上不完整

要理解治理缺口,必须理解当今 AI Agent 框架的概念基础。LangChain、AutoGen、OpenAI Agent 工具包等系统,都建立在可称为信息流范式的基础上:Agent 是网络中的节点,智能从消息、指令和数据在节点间的流动中涌现。

这一范式有着深厚的计算机科学根基。它优雅、可扩展,非常适合确定性的、任务特定的工作流。当 Agent 需要检索文档、调用 API 或摘要报告时,信息流是正确的模型:指令流入,结果流出。

但信息流范式有一个结构性盲点:它能传递"做什么",却无法传递"应该做什么、不应该做什么"。它能携带指令,却无法携带规范。它能描述行动,却无法描述义务、许可或禁止。

这一区别在企业场景中至关重要。设想一家金融服务公司部署 Agent 处理贷款申请。Agent 可以被指令"批准信用评分超过某阈值的贷款"。但它能被指令"即使信用评分达标,也绝不批准违反公平贷款法规的贷款"吗?它能理解"被允许"采取某行动与"被要求"采取某行动之间的区别吗?它能识别一个技术上合规的行动在规范上是被禁止的吗?

在信息流范式中,答案是:不能,至少不能可靠地做到。规范——治理人类组织行为的规则、义务和道德约束——存在于信息流之外。它们被嵌入训练数据、编码在系统提示中,或由外部护栏强制执行。这些机制都不足以应对大规模自主多 Agent 系统的治理需求。

研究界已开始将这一问题形式化。Hammond 等人 2025 年关于高级 AI 多 Agent 风险的里程碑式报告,识别出多 Agent 系统中的三种主要失效模式:协调失败(Agent 尽管有共同目标却无法合作)、冲突(Agent 因激励分歧而无法合作)和共谋(Agent 以违反人类价值观或法律标准的方式协调)。⁸ 三种失效模式有一个共同根源:Agent 之间缺乏共享的规范性理解。

商业后果是可量化的。IBM 研究发现,涉及未受治理的"影子 AI"的安全漏洞,比涉及授权 AI 工具的漏洞多出 67 万美元的成本溢价。⁵ AI 生成的代码包含的缺陷约为人工编写代码的 1.7 倍。⁵ 一个管理 50 个应用程序的典型组织,每年仅因 AI 生成代码就会积累 7000 个新漏洞。⁵ 这些不是边缘案例,而是在没有规范基础的情况下部署自主系统的可预见后果。

第三部分:信息场范式——一个更完整的智能模型

信息流范式的局限性并非新发现。五十年前,英国计算机科学家和组织理论家 Ronald K. Stamper 就已预见到这一问题。他关于组织符号学的研究,为一种根本不同的信息与行为方法奠定了理论基础。

Stamper 的核心洞见看似简单,却意义深远:信息不仅仅是在系统间流动的数据。信息是一个力场——一种规范性环境,它塑造着社区成员感知、解释和行动的方式。用他的话说,一条书面规则"不过是代表规范的一个符号——而规范是一种力场,它促使社区成员以特定方式行事"。⁹

这一区别——信息作为流动与信息作为场——对我们如何设计 AI 系统有着深远影响。在信息流模型中,Agent 行动是因为它收到了指令。在信息场模型中,Agent 行动是因为它内化了对其情境中何为义务、何为许可、何为禁止的规范性理解。

来自雷丁大学的最新研究将这一理论框架与当代 AI 直接对话。Liu、Bai、Noussia 和 Wang(2025)认为,包括大型语言模型在内的当前 AI 系统"主要依赖统计关联,缺乏情境理解和规范判断"。他们的分析识别出一个根本性的不对称:人类进行情境性、解释性和溯因推理——借助共享规范、文化情境和道德判断——而 AI 系统在没有真正规范理解的情况下进行模式匹配。¹⁰

对企业部署的影响是严峻的。当 AI Agent 遇到训练数据或明确指令未涵盖的新情境时,它没有可依赖的规范框架。它无法问:"这个行动与我所在组织的价值观和义务一致吗?"它只能问:"我训练数据中哪个模式最匹配这个输入?"这是两个根本不同的问题,在高风险企业场景中,两者之间的差异,就是可信 AI 与不可信 AI 的差异。

Liu 等人提出了认识-道义-价值论(EDA)架构作为回应——一个将符号规范推理与神经模型整合的框架,以提高可解释性、道德对齐和可信度。¹⁰ 这正是企业 AI 治理必须前进的方向:从处理信息流的系统,走向在信息场中运作的系统。

第四部分:范式转变已在进行中的三个信号

范式转变很少清晰地自我宣告。它们在回顾中可见,通过多个信号的汇聚。围绕信息场范式,三个这样的信号正在汇聚。

信号一:监管压力正在强制推动规范形式化

EU AI Act 于 2026 年 8 月对高风险 AI 系统全面适用,它不仅要求组织记录其 AI 系统,更要求它们证明其 AI 系统在定义的规范边界内运行——具备可审计和可验证的风险管理系统、透明度机制和人工监督结构。¹¹ 这在本质上是一项法律授权,要求从信息流范式转向信息场范式。

市场正在响应。Gartner 报告称,AI 治理平台支出将在 2026 年达到 4.92 亿美元,并在 2030 年超过 10 亿美元,直接受监管压力驱动。¹² Forrester 预测,AI 治理软件从 2024 年到 2030 年的复合年增长率为 30%,达到 158 亿美元——占整体软件市场的 7%。¹³ 到 2030 年,Gartner 预测,碎片化的 AI 法规将覆盖全球 75% 的经济体。¹² 将治理视为合规清单的组织将永远落后。将治理视为战略能力的组织将拥有持久的竞争优势。

信号二:Agent 自主性正在超越人工监督能力

Anthropic 的自主性研究揭示了一个应该引起每位企业 AI 领导者关注的模式:随着 Agent 变得更有能力、更受信任,人工监督自然减少。用户从最初审查每个 Agent 行动,逐渐转向批量审批,再到全自动审批。这是理性行为——审查高能力 Agent 的每个行动是低效的。但这造成了一个随 Agent 能力增长而扩大的治理缺口。⁷

Anthropic 的研究人员对此明确表态:"有效监督 Agent 需要新形式的部署后监控基础设施,以及帮助人类和 AI 共同管理自主性和风险的新型人机交互范式。"⁷ 信息流范式无法提供这些。对信息流的部署后监控告诉你发生了什么;它无法告诉你发生的事情是否在规范上是适当的。只有预先编码规范预期的系统——信息场——才能为大规模有意义的治理提供基础。

信号三:多 Agent 协调需要共享的规范基础

麦肯锡关于"Agentic 组织"的愿景——Agent 工厂、Agent 网格和动态人机团队——隐含地假设 Agent 不仅能在任务上协调,还能在价值观上协调。管理 KYC 流程的 Agent 工厂不仅必须高效分工;它还必须确保网络中的每个 Agent 应用相同的监管标准、相同的道德约束和相同的组织政策。³

这仅靠信息流是无法实现的。通过消息队列传递合规指令,并不能确保网络中的每个 Agent 都真正内化了规范要求。这造成了一个脆弱的系统,一次误通信或边缘案例就可能产生合规失败。信息场范式提供了更稳健的替代方案:一个共享的规范环境——一个结构化的义务、许可和禁止的存储库——网络中的每个 Agent 都可以一致地访问、解释和应用。

第五部分:对商业领袖的启示

从信息流到信息场的范式转变,不是遥远的理论发展。对于任何大规模部署 AI Agent 的组织来说,这是一个实际的迫切需求。问题不在于是否要进行这一转变,而在于多快、多战略性地进行。

治理缺口是战略负债。在没有规范基础的情况下部署 Agentic AI 的组织,正在积累可称为"规范债务"的东西——其 AI 系统正在做的事情与应该做的事情之间不断扩大的缺口。这种债务随时间复利增长。随着 Agent 自主性增加、监管要求收紧、多 Agent 系统变得更复杂,在没有规范结构的系统上事后强加规范结构的成本将变得令人望而却步。

先发优势的窗口是开放的,但正在关闭。Gartner 预测,到 2028 年,大型企业将平均部署十个治理、风险和合规技术解决方案——高于 2025 年的八个。¹² 现在部署 AI 治理平台的组织,在市场仍在形成的时候,将有机会塑造行业标准、积累机构知识,并建立难以复制的竞争护城河。等待市场成熟的组织,将为早期行动者以一小部分成本构建的能力支付溢价。

信息场范式不是对 AI 能力的约束——而是 AI 规模化的前提。对规范治理框架最常见的反对意见是,它们会减慢 AI 部署或限制 Agent 能力。这一反对意见误解了规范与能力之间的关系。人类组织在建立清晰的规则和价值观时不会变得更没能力;它们变得更有能力,因为共享规范降低了协调成本、建立了信任,并允许个体在定义的边界内自信地行动。同样的逻辑适用于 AI Agent。在定义良好的规范场中运作的 Agent 可以更自主地行动,而不是更少——因为其委托人可以信任其自主行动将保持在可接受的边界内。

从信息流到信息场的转变,归根结底,是从 AI 作为工具到 AI 作为可信赖的组织行动者的转变。这是将在未来十年定义企业 AI 的范式转变。早期理解这一转变的组织,将处于引领的位置。

结论

技术史是范式转变的历史——新的概念框架取代旧框架的时刻,不是因为旧框架是错误的,而是因为它不足以应对更复杂世界的需求。信息流范式很好地服务了第一代 AI Agent。它实现了快速开发、灵活架构和令人印象深刻的能力展示。

但第二代 AI Agent——自主、长期运行、在高风险企业领域的多 Agent 网络中运作——需要更多。它需要不仅处理信息,而且在规范场中运作的系统:共享的义务、许可和禁止环境,赋予 AI Agent 与规范赋予人类组织相同的行为基础。

研究正在向这一结论汇聚。监管环境正在强制推动它。市场开始为其定价。唯一剩下的问题是,哪些组织将引领这一转变——哪些将被迫跟随。

参考文献

1

Gartner,《Gartner 预测超过 40% 的 Agentic AI 项目将在 2027 年底前被取消》,新闻稿,2025年6月25日。 https://www.gartner.com/en/newsroom/press-releases/2025-06-25-gartner-predicts-over-40-percent-of-agentic-ai-projects-will-be-canceled-by-end-of-2027

2

IDC,《Agentic AI 将在未来五年主导 IT 预算扩张》,新闻稿,2025年8月26日。 https://my.idc.com/getdoc.jsp?containerId=prUS53765225

4

Gartner,《Gartner 预测超过 40% 的 Agentic AI 项目将在 2027 年底前被取消》,新闻稿,2025年6月25日。

5

企业管理协会(EMA),《Agentic AI 身份:自主运营的未受保护前沿》,2025年12月2日。引自:Victor Sowers,《Agentic AI 治理缺口:2026 年战略框架》,Pixee,2026年1月5日。 https://www.pixee.ai/blog/agentic-ai-governance-gap-strategic-framework-2026

6

Gartner,《Gartner 预测 33% 的企业软件应用将在 2028 年包含 Agentic AI》,新闻稿,2026年1月15日。

7

Anthropic,《实践中测量 AI Agent 自主性》,研究报告,2026年2月18日。 https://www.anthropic.com/research/measuring-agent-autonomy

8

Lewis Hammond、Alan Chan、Jesse Clifton 等,《高级 AI 的多 Agent 风险》,arXiv:2502.14143,2025年2月。 https://arxiv.org/abs/2502.14143

9

Ronald K. Stamper、Kecheng Liu、Mark Hafkamp 和 Yana Ades,《理解组织中符号与规范的角色》,《行为与信息技术》,第19卷,第1期,第15-27页,2000年。

10

Kecheng Liu、Jian Bai、Katerina Noussia 和 Chengyu Wang,《人类与人工智能的符号学分析》,LISS 2025,布达佩斯,2025年8月1-5日。IEEE。 https://centaur.reading.ac.uk/id/eprint/123384

11

欧洲议会和欧盟理事会,《关于人工智能统一规则的第 2024/1689 号条例(人工智能法)》,欧盟官方公报,2024年7月12日。

13

Forrester Research,《AI 治理软件支出将在 2024 年至 2030 年实现 30% 复合年增长率》,2024年11月13日。 https://www.forrester.com/blogs/ai-governance-software-spend-will-see-30-cagr-from-2024-to-2030/

AIF 技术报告 第一期 · Agent 信息场研究系列 · 2026年2月

所有数据均注明原始来源。市场预测反映截至发布日期的分析师估计。