很多企业级 AI 的讨论,今天其实还停留在上一代数字化思维里。
一谈到底座,大家第一反应还是数据治理、主数据、知识图谱、本体论、语义层。
这些当然重要。
但如果今天我们讨论的,不再只是 BI、搜索、报表和辅助分析,而是一个真正进入业务流、开始替人执行任务的 AI Agent,那么底层问题就已经变了。
真正的问题不再是:
企业世界到底由什么构成?
而是:
当 Agent 面对一个具体任务时,它应该如何理解当前场景,如何判断边界,如何调用规则,如何决定下一步动作。
这是两类完全不同的问题。
前者属于本体论和数据工程。
后者,才真正属于上下文管理和认知工程。
所以如果一定要把我最近的判断压缩成一句话,那就是:
本体论没有过时,但企业级 AI 的主战场,正在从“统一描述世界”转向“为 Agent 装配认知”。
一、很多人误会了:本体论不是老东西,但它也不是终局
最近重新看了一轮 Palantir 关于 Ontology 的官方文档,我反而更确信一件事:
很多人一边低估了 Palantir,一边又高估了“只要有本体论就够了”。
Palantir 的 Ontology,根本不是一个简单的数据目录,也不是一个“给表起业务名”的语义包装层。
如果按照它自己的定义,Ontology 是整个 Palantir 架构的核心系统。它试图表达的不是单纯的数据,而是企业中复杂、相互关联的决策世界。
它做的至少不是一件事,而是四件事:
- 把异构数据统一映射成共享的业务对象、属性和关系。
- 把组织内部的操作定义成可复用、可验证的业务动作。
- 把权限、写回、审计一起纳入这个语义世界。
- 让人和 AI 都可以基于这套世界模型去协作。
也就是说,Palantir 并不是在做一个“更好的数据库视图”。
它真正想做的,是一个机构级的语义-动作层。
从这个意义上讲,Palantir 是非常领先的。
因为它已经意识到,企业真正的复杂性,不在数据量,而在对象、关系、动作、权限和反馈能不能被统一成一个可运行系统。
所以如果今天还有人把本体论理解成“学术概念”或者“知识图谱老一套”,那已经严重看浅了。
但问题也恰恰出在这里。
Palantir 再强,它解决的核心问题,依然主要是“如何让整个组织共享一个统一的业务世界”。
而这,并不等于:
如何让 Agent 在这个世界里稳定工作。
二、真正的分界线,不是数据 vs 知识,而是世界模型 vs 任务认知
过去很多讨论都打偏了。
大家喜欢把问题讲成:
- 结构化数据 vs 非结构化数据
- 知识图谱 vs RAG
- 本体论 vs 文档库
- 数据工程 vs 提示词工程
这些都不是最关键的分界线。
真正的分界线其实是:
你是在解决“世界如何被统一表达”,还是在解决“Agent 此刻应该如何理解并行动”。
这两者听起来很像,但根本不是一回事。
本体论关心的是:
- 有哪些对象
- 对象之间是什么关系
- 哪些动作可以被触发
- 哪些规则是长期稳定的
- 哪些权限决定谁能读、谁能改、谁能写回
它做的是:
把企业世界表达清楚。
但 Agent 真正开始进入业务流之后,新的问题会迅速冒出来:
- 当前这个问题属于什么意图
- 当前这个场景是不是高风险场景
- 当前证据是不是充分
- 当前规则之间有没有冲突
- 当前应该优先调用哪一种能力模块
- 当前应该输出结论,还是输出“证据不足”
- 当前应该继续执行,还是升级人工
这些问题已经不再只是“世界是什么”的问题。
它们其实是在问:
在这个世界里,此时此刻应该怎么想、怎么判断、怎么做。
这就是认知工程真正开始的地方。
所以更准确地说:
本体论统一的是世界模型,认知工程统一的是任务判断。
或者再说得更直白一点:
数据工程在定义世界,认知工程在让 Agent 学会工作。
为了避免这件事听起来太抽象,不妨直接看一个最典型、也最容易暴露问题的场景:客服。
假设一个用户来问:
“我在 618 活动里买的这台空调,现在价格降了,能不能申请价保?”
如果你站在本体论的视角,这个问题会被拆成一张非常清晰的业务世界地图:
- 这是什么产品型号
- 这是哪个活动
- 这是哪个渠道
- 属于哪个区域
- 对应哪条价保规则
- 这条规则的生效时间是什么
- 是否存在例外条款
- 哪些动作可以被触发,比如补差价、转人工、提交工单
这一步非常重要。
因为如果没有这一步,系统甚至不知道自己在判断什么。
但问题是,光有这张“业务地图”,客服 Agent 还是不够用。
因为它真正要面对的,不是一个静态判断题,而是一个任务现场。
它还要继续判断:
- 用户说的是不是标准价保场景,还是夹杂了投诉情绪
- 当前订单信息是否完整
- 当前证据是否充分
- 当前规则之间是否冲突
- 当前这个渠道是否允许直接承诺
- 当前应该先给结论,还是先收集订单号
- 当前应该输出标准答复,还是直接升级人工
你会发现,到这里为止,问题已经不是“系统知不知道价保规则是什么”。
而是:
在这个具体客服任务里,Agent 应该如何组织认知、排序判断,并采取合适动作。
也就是说:
- 本体论告诉系统,世界里有“订单、活动、渠道、区域、规则、动作”这些对象。
- 认知工程告诉 Agent,在这次对话里应该先核验什么、再判断什么、何时保守、何时升级。
前者解决“看懂业务世界”。
后者解决“在业务现场不犯错地工作”。
这就是为什么很多企业今天明明已经有了不错的数据模型、规则库甚至知识图谱,客服 Agent 仍然不稳定。
问题往往不在它不知道规则,而在它没有被装配成一个真正能处理任务的认知系统。
三、为什么说 Palantir 也没有解决这个问题
这里要说得严谨一点。
不是 Palantir 没意识到 Agent 的问题。
恰恰相反,它已经明显意识到了。
从 Palantir 这两年的动作里,你能明显看到,它正在努力把本体层继续往 Agent 侧延展。
比如在它的 Agent 能力设计里,给 Agent 提供的上下文,并不只有本体层。
它同时保留了至少三类输入:
- 本体语义
- 文档语境
- 外部函数与系统能力
这件事非常关键。
因为这等于 Palantir 自己已经承认了一件事:
本体层是 Agent 的重要认知锚点,但不是 Agent 的全部认知来源。
如果 Ontology 就足够了,它根本不需要把文档上下文和函数上下文并列拿出来。
这说明即便在 Palantir 自己的体系里,本体层也只是认知输入的一部分,而不是认知系统的全部。
再往前看,它更进一步的产品尝试也很有意思。
那已经不是“问答机器人”,而是一个真正可以操作平台的 Agent。
它可以理解自然语言请求,可以操作平台,可以调整本体结构,可以做预览验证,也可以直接参与改动流程。
这说明 Palantir 正在努力把“语义层”继续推进成“操作层”。
但即便如此,它的核心仍然是:
让 Agent 操作一个已经被良好定义的平台世界。
而不是从更底层去定义:
Agent 在不同业务域里,到底应该遵守什么认知规则、调用什么经验、扮演什么角色、何时保守、何时升级。
换句话说,Palantir 解决的是:
如何让 Agent 能够在一个统一、受控、可治理的企业世界里行动。
但它没有真正替你解决:
这个 Agent 在面对某类业务问题时,应该如何形成可执行认知。
这不是能力高低问题,而是问题层级不同。
四、真正能跑进业务流的系统,最终都会长成这三层
如果把前面的判断继续往下压,其实可以得到一个更实用的系统分层。
很多项目早期的表达,其实和传统本体论路线很像。
它强调:
- 对象类型
- 关系类型
- 动作类型
- 知识治理
- 审核发布
- 分发闭环
这一步非常重要,也非常对。
因为如果没有这一层,所谓企业级 AI 基本上就只能停留在:
- 常见问答增强
- 文档检索增强
- 模糊的“智能助手”
很难进入复杂客服、售后、导购、政策组合判断这些真实业务流。
但真正往前走的一步,不是把本体建得更复杂,而是开始把整个系统拆成三层:
- 稳定语义层
- 事实状态层
- 交付编译层
这三个层,实际上就是这篇文章最关键的骨架。
1. 稳定语义层:世界应该长什么样
这是稳定语义层。
它定义:
- 概念
- 关系
- 规则
- 约束
它回答的是:
这个业务域的世界,理论上应该如何被表达。
2. 事实状态层:现在真实发生了什么
这是事实层。
它承载:
- 当前产品型号
- 当前活动规则
- 当前区域差异
- 当前工单状态
- 当前反馈案例
- 当前证据状态
它回答的是:
此时此刻,现实世界里到底发生了什么。
3. 交付编译层:如何把语义变成交付物
这是最关键的一层,也是绝大多数传统本体项目没有真正做透的一层。
因为这一层关心的,不再是对象和关系本身,而是:
- 答案包
- 流程包
- 权限包
- 分发包
- 测试包
- 发布包
它回答的是:
如何把业务语义真正编译成可上线、可运行、可审计的 AI 交付物。
这一步一出来,问题性质就变了。
因为你不再是在做“知识表示”,而是在做:
从业务语义到 Agent 行为的编译系统。
五、本体论为什么还不够:因为 Agent 需要的不是地图,而是认知操作系统
很多人喜欢把这个问题比喻成“地图和导航”,但这个比喻还不够。
更准确地说,本体论提供的,不只是地图。
它还提供了:
- 路网
- 交通规则
- 操作按钮
- 权限卡口
- 部分回写机制
所以它已经比普通地图强很多了。
但它仍然不是完整的“驾驶系统”。
因为一个真正要开车的 Agent,还需要实时解决:
- 我现在处于什么任务
- 我应该按什么策略行驶
- 哪些规则在这个场景下优先
- 当前信息是否足够
- 是否应该保守驾驶
- 是否需要人工接管
这部分已经不是本体论在解决的问题了。
它更接近:
认知操作系统。
也就是说,Agent 不是只需要一个被定义好的世界,它还需要一套持续被装配的判断系统。
这套判断系统至少包含:
- 任务上下文
- 角色上下文
- 规则优先级
- 证据完整性
- 风险阈值
- 能力装载顺序
- 降级与升级策略
这才是为什么“上下文管理”会在 Agent 时代突然变得这么关键。
因为当系统从“人来操作”变成“Agent 来执行”之后,真正稀缺的已经不是数据本身,也不是对象模型本身,而是:
AI 到底被喂了什么认知。
六、所以,企业级 AI 的方法论正在发生一次真正的迁移
如果把这件事放大来看,企业级 AI 正在发生一场非常关键的方法论迁移。
过去数字化时代的主问题是:
如何把企业世界数字化、结构化、标准化。
所以核心能力是:
- 数据治理
- 主数据
- 数据建模
- 本体论
- 数据工程
这一套没有错,它定义了企业世界。
但 Agent 时代的新问题是:
如何让一个新的执行主体,在这个企业世界里稳定工作。
所以新的核心能力变成了:
- 上下文管理
- 规则装配
- 证据编排
- 能力加载
- 任务级记忆
- 冲突仲裁
- 风险降级
- 人机协同边界
这就是为什么我现在越来越倾向于把下一阶段的方法论,叫做:
上下文管理-认知工程。
它不是为了替代本体论,而是站在本体论之上,继续往前走一层。
更准确地说:
本体论负责让企业拥有一个统一的世界模型。
认知工程负责让 Agent 在这个世界模型上,形成正确的任务认知。
这两者不是竞争关系,而是上下游关系。
但企业真正的竞争焦点,确实正在从前者转向后者。
七、这对企业意味着什么
这件事最容易被误解成一个技术趋势判断。
但它首先是一个商业判断。
因为如果这个判断成立,那么企业接下来真正要建设的重点就变了。
不是继续无止境地问:
- 怎么做更大的知识图谱
- 怎么把更多表映射进本体
- 怎么把更多系统接进语义层
而是要开始问:
- Agent 在这个业务里到底承担什么执行职责
- 它需要哪些长期稳定的语义层
- 它需要哪些短期动态的上下文层
- 它应该通过哪些规则来判断是否继续执行
- 它应该在什么情况下输出答案包
- 它应该在什么情况下升级人工
- 它的认知错误应该如何被观测、审计、回滚和修正
这些问题,本质上都不再只是数据问题,而是认知系统设计问题。
这也意味着,未来企业级 AI 的真正差距,越来越不在:
- 谁接入的数据更多
- 谁建的对象更多
- 谁的图谱更大
而在:
谁更早把企业语义层,升级成 Agent 可工作的认知操作系统。
八、最后一句话
如果要我用一句话总结这篇文章,我会这么说:
Palantir 证明了本体论的重要性,但 Agent 时代真正的主战场,已经不是“定义世界”,而是“让 AI 学会在这个世界里工作”。
本体论没有过时,但它已经不再是终点。
真正的下一站,是上下文管理,是认知工程,是任务级的 AI 认知操作系统。
说到底,
统一世界,只是开始。统一行动,才是下一阶段。