很多企业级 AI 的讨论,今天其实还停留在上一代数字化思维里。

一谈到底座,大家第一反应还是数据治理、主数据、知识图谱、本体论、语义层。

这些当然重要。

但如果今天我们讨论的,不再只是 BI、搜索、报表和辅助分析,而是一个真正进入业务流、开始替人执行任务的 AI Agent,那么底层问题就已经变了。

真正的问题不再是:

企业世界到底由什么构成?

而是:

当 Agent 面对一个具体任务时,它应该如何理解当前场景,如何判断边界,如何调用规则,如何决定下一步动作。

这是两类完全不同的问题。

前者属于本体论和数据工程。

后者,才真正属于上下文管理和认知工程。

所以如果一定要把我最近的判断压缩成一句话,那就是:

本体论没有过时,但企业级 AI 的主战场,正在从“统一描述世界”转向“为 Agent 装配认知”。

一、很多人误会了:本体论不是老东西,但它也不是终局

最近重新看了一轮 Palantir 关于 Ontology 的官方文档,我反而更确信一件事:

很多人一边低估了 Palantir,一边又高估了“只要有本体论就够了”。

Palantir 的 Ontology,根本不是一个简单的数据目录,也不是一个“给表起业务名”的语义包装层。

如果按照它自己的定义,Ontology 是整个 Palantir 架构的核心系统。它试图表达的不是单纯的数据,而是企业中复杂、相互关联的决策世界。

它做的至少不是一件事,而是四件事:

  1. 把异构数据统一映射成共享的业务对象、属性和关系。
  2. 把组织内部的操作定义成可复用、可验证的业务动作。
  3. 把权限、写回、审计一起纳入这个语义世界。
  4. 让人和 AI 都可以基于这套世界模型去协作。

也就是说,Palantir 并不是在做一个“更好的数据库视图”。

它真正想做的,是一个机构级的语义-动作层。

从这个意义上讲,Palantir 是非常领先的。

因为它已经意识到,企业真正的复杂性,不在数据量,而在对象、关系、动作、权限和反馈能不能被统一成一个可运行系统。

所以如果今天还有人把本体论理解成“学术概念”或者“知识图谱老一套”,那已经严重看浅了。

但问题也恰恰出在这里。

Palantir 再强,它解决的核心问题,依然主要是“如何让整个组织共享一个统一的业务世界”。

而这,并不等于:

如何让 Agent 在这个世界里稳定工作。

二、真正的分界线,不是数据 vs 知识,而是世界模型 vs 任务认知

过去很多讨论都打偏了。

大家喜欢把问题讲成:

  • 结构化数据 vs 非结构化数据
  • 知识图谱 vs RAG
  • 本体论 vs 文档库
  • 数据工程 vs 提示词工程

这些都不是最关键的分界线。

真正的分界线其实是:

你是在解决“世界如何被统一表达”,还是在解决“Agent 此刻应该如何理解并行动”。

这两者听起来很像,但根本不是一回事。

本体论关心的是:

  • 有哪些对象
  • 对象之间是什么关系
  • 哪些动作可以被触发
  • 哪些规则是长期稳定的
  • 哪些权限决定谁能读、谁能改、谁能写回

它做的是:

把企业世界表达清楚。

但 Agent 真正开始进入业务流之后,新的问题会迅速冒出来:

  • 当前这个问题属于什么意图
  • 当前这个场景是不是高风险场景
  • 当前证据是不是充分
  • 当前规则之间有没有冲突
  • 当前应该优先调用哪一种能力模块
  • 当前应该输出结论,还是输出“证据不足”
  • 当前应该继续执行,还是升级人工

这些问题已经不再只是“世界是什么”的问题。

它们其实是在问:

在这个世界里,此时此刻应该怎么想、怎么判断、怎么做。

这就是认知工程真正开始的地方。

所以更准确地说:

本体论统一的是世界模型,认知工程统一的是任务判断。

或者再说得更直白一点:

数据工程在定义世界,认知工程在让 Agent 学会工作。

为了避免这件事听起来太抽象,不妨直接看一个最典型、也最容易暴露问题的场景:客服。

假设一个用户来问:

“我在 618 活动里买的这台空调,现在价格降了,能不能申请价保?”

如果你站在本体论的视角,这个问题会被拆成一张非常清晰的业务世界地图:

  • 这是什么产品型号
  • 这是哪个活动
  • 这是哪个渠道
  • 属于哪个区域
  • 对应哪条价保规则
  • 这条规则的生效时间是什么
  • 是否存在例外条款
  • 哪些动作可以被触发,比如补差价、转人工、提交工单

这一步非常重要。

因为如果没有这一步,系统甚至不知道自己在判断什么。

但问题是,光有这张“业务地图”,客服 Agent 还是不够用。

因为它真正要面对的,不是一个静态判断题,而是一个任务现场。

它还要继续判断:

  • 用户说的是不是标准价保场景,还是夹杂了投诉情绪
  • 当前订单信息是否完整
  • 当前证据是否充分
  • 当前规则之间是否冲突
  • 当前这个渠道是否允许直接承诺
  • 当前应该先给结论,还是先收集订单号
  • 当前应该输出标准答复,还是直接升级人工

你会发现,到这里为止,问题已经不是“系统知不知道价保规则是什么”。

而是:

在这个具体客服任务里,Agent 应该如何组织认知、排序判断,并采取合适动作。

也就是说:

  • 本体论告诉系统,世界里有“订单、活动、渠道、区域、规则、动作”这些对象。
  • 认知工程告诉 Agent,在这次对话里应该先核验什么、再判断什么、何时保守、何时升级。

前者解决“看懂业务世界”。

后者解决“在业务现场不犯错地工作”。

这就是为什么很多企业今天明明已经有了不错的数据模型、规则库甚至知识图谱,客服 Agent 仍然不稳定。

问题往往不在它不知道规则,而在它没有被装配成一个真正能处理任务的认知系统。

三、为什么说 Palantir 也没有解决这个问题

这里要说得严谨一点。

不是 Palantir 没意识到 Agent 的问题。

恰恰相反,它已经明显意识到了。

从 Palantir 这两年的动作里,你能明显看到,它正在努力把本体层继续往 Agent 侧延展。

比如在它的 Agent 能力设计里,给 Agent 提供的上下文,并不只有本体层。

它同时保留了至少三类输入:

  • 本体语义
  • 文档语境
  • 外部函数与系统能力

这件事非常关键。

因为这等于 Palantir 自己已经承认了一件事:

本体层是 Agent 的重要认知锚点,但不是 Agent 的全部认知来源。

如果 Ontology 就足够了,它根本不需要把文档上下文和函数上下文并列拿出来。

这说明即便在 Palantir 自己的体系里,本体层也只是认知输入的一部分,而不是认知系统的全部。

再往前看,它更进一步的产品尝试也很有意思。

那已经不是“问答机器人”,而是一个真正可以操作平台的 Agent。

它可以理解自然语言请求,可以操作平台,可以调整本体结构,可以做预览验证,也可以直接参与改动流程。

这说明 Palantir 正在努力把“语义层”继续推进成“操作层”。

但即便如此,它的核心仍然是:

让 Agent 操作一个已经被良好定义的平台世界。

而不是从更底层去定义:

Agent 在不同业务域里,到底应该遵守什么认知规则、调用什么经验、扮演什么角色、何时保守、何时升级。

换句话说,Palantir 解决的是:

如何让 Agent 能够在一个统一、受控、可治理的企业世界里行动。

但它没有真正替你解决:

这个 Agent 在面对某类业务问题时,应该如何形成可执行认知。

这不是能力高低问题,而是问题层级不同。

四、真正能跑进业务流的系统,最终都会长成这三层

如果把前面的判断继续往下压,其实可以得到一个更实用的系统分层。

很多项目早期的表达,其实和传统本体论路线很像。

它强调:

  • 对象类型
  • 关系类型
  • 动作类型
  • 知识治理
  • 审核发布
  • 分发闭环

这一步非常重要,也非常对。

因为如果没有这一层,所谓企业级 AI 基本上就只能停留在:

  • 常见问答增强
  • 文档检索增强
  • 模糊的“智能助手”

很难进入复杂客服、售后、导购、政策组合判断这些真实业务流。

但真正往前走的一步,不是把本体建得更复杂,而是开始把整个系统拆成三层:

  1. 稳定语义层
  2. 事实状态层
  3. 交付编译层

这三个层,实际上就是这篇文章最关键的骨架。

1. 稳定语义层:世界应该长什么样

这是稳定语义层。

它定义:

  • 概念
  • 关系
  • 规则
  • 约束

它回答的是:

这个业务域的世界,理论上应该如何被表达。

2. 事实状态层:现在真实发生了什么

这是事实层。

它承载:

  • 当前产品型号
  • 当前活动规则
  • 当前区域差异
  • 当前工单状态
  • 当前反馈案例
  • 当前证据状态

它回答的是:

此时此刻,现实世界里到底发生了什么。

3. 交付编译层:如何把语义变成交付物

这是最关键的一层,也是绝大多数传统本体项目没有真正做透的一层。

因为这一层关心的,不再是对象和关系本身,而是:

  • 答案包
  • 流程包
  • 权限包
  • 分发包
  • 测试包
  • 发布包

它回答的是:

如何把业务语义真正编译成可上线、可运行、可审计的 AI 交付物。

这一步一出来,问题性质就变了。

因为你不再是在做“知识表示”,而是在做:

从业务语义到 Agent 行为的编译系统。

五、本体论为什么还不够:因为 Agent 需要的不是地图,而是认知操作系统

很多人喜欢把这个问题比喻成“地图和导航”,但这个比喻还不够。

更准确地说,本体论提供的,不只是地图。

它还提供了:

  • 路网
  • 交通规则
  • 操作按钮
  • 权限卡口
  • 部分回写机制

所以它已经比普通地图强很多了。

但它仍然不是完整的“驾驶系统”。

因为一个真正要开车的 Agent,还需要实时解决:

  • 我现在处于什么任务
  • 我应该按什么策略行驶
  • 哪些规则在这个场景下优先
  • 当前信息是否足够
  • 是否应该保守驾驶
  • 是否需要人工接管

这部分已经不是本体论在解决的问题了。

它更接近:

认知操作系统。

也就是说,Agent 不是只需要一个被定义好的世界,它还需要一套持续被装配的判断系统。

这套判断系统至少包含:

  • 任务上下文
  • 角色上下文
  • 规则优先级
  • 证据完整性
  • 风险阈值
  • 能力装载顺序
  • 降级与升级策略

这才是为什么“上下文管理”会在 Agent 时代突然变得这么关键。

因为当系统从“人来操作”变成“Agent 来执行”之后,真正稀缺的已经不是数据本身,也不是对象模型本身,而是:

AI 到底被喂了什么认知。

六、所以,企业级 AI 的方法论正在发生一次真正的迁移

如果把这件事放大来看,企业级 AI 正在发生一场非常关键的方法论迁移。

过去数字化时代的主问题是:

如何把企业世界数字化、结构化、标准化。

所以核心能力是:

  • 数据治理
  • 主数据
  • 数据建模
  • 本体论
  • 数据工程

这一套没有错,它定义了企业世界。

但 Agent 时代的新问题是:

如何让一个新的执行主体,在这个企业世界里稳定工作。

所以新的核心能力变成了:

  • 上下文管理
  • 规则装配
  • 证据编排
  • 能力加载
  • 任务级记忆
  • 冲突仲裁
  • 风险降级
  • 人机协同边界

这就是为什么我现在越来越倾向于把下一阶段的方法论,叫做:

上下文管理-认知工程。

它不是为了替代本体论,而是站在本体论之上,继续往前走一层。

更准确地说:

本体论负责让企业拥有一个统一的世界模型。

认知工程负责让 Agent 在这个世界模型上,形成正确的任务认知。

这两者不是竞争关系,而是上下游关系。

但企业真正的竞争焦点,确实正在从前者转向后者。

七、这对企业意味着什么

这件事最容易被误解成一个技术趋势判断。

但它首先是一个商业判断。

因为如果这个判断成立,那么企业接下来真正要建设的重点就变了。

不是继续无止境地问:

  • 怎么做更大的知识图谱
  • 怎么把更多表映射进本体
  • 怎么把更多系统接进语义层

而是要开始问:

  • Agent 在这个业务里到底承担什么执行职责
  • 它需要哪些长期稳定的语义层
  • 它需要哪些短期动态的上下文层
  • 它应该通过哪些规则来判断是否继续执行
  • 它应该在什么情况下输出答案包
  • 它应该在什么情况下升级人工
  • 它的认知错误应该如何被观测、审计、回滚和修正

这些问题,本质上都不再只是数据问题,而是认知系统设计问题。

这也意味着,未来企业级 AI 的真正差距,越来越不在:

  • 谁接入的数据更多
  • 谁建的对象更多
  • 谁的图谱更大

而在:

谁更早把企业语义层,升级成 Agent 可工作的认知操作系统。

八、最后一句话

如果要我用一句话总结这篇文章,我会这么说:

Palantir 证明了本体论的重要性,但 Agent 时代真正的主战场,已经不是“定义世界”,而是“让 AI 学会在这个世界里工作”。

本体论没有过时,但它已经不再是终点。

真正的下一站,是上下文管理,是认知工程,是任务级的 AI 认知操作系统。

说到底,

统一世界,只是开始。统一行动,才是下一阶段。