别卷模型了:企业 AI 的下一个 Scaling Law,是“上下文”
过去两年,整个科技界都在信奉一条铁律:Scaling Law(缩放定律)。
OpenAI 告诉我们:只要算力足够大、参数足够多、数据足够广,模型的智能就会“涌现”。于是,所有人都在卷模型。
但在企业落地的真实战场上,我发现了一个诡异的现象:
你用着最先进的 GPT-5、Gemini3,接着最贵的向量数据库,但你的 AI 员工依然像个“高智商的失忆症患者”。
它能写出莎士比亚风格的诗,却写不对你公司的一条促销文案;它懂量子力学,却搞不清你家产品的 SKU 逻辑。
为什么?
昨天和一个朋友探讨这块时,他提出,Knowhow 依然是决定 Agent 效果好坏的关键。事实上,这个观点我不仅认同,并且还在一个具体的项目中以实际行动证明了这句话。当时服务一个奢品品牌的鞋服线私域商城,需要做一个尺码推荐的 Agent,同台有三个玩家:一个五虎级大模型公司、一个知名电商代运营公司。大家围绕这个命题出 demo,但经过反复测试,我做的 demo 在所有轮次的测试中,表现都最好。但其实,我的提示词,加起来没超过 200 个字。所差仅仅只是,我因为多年服务鞋服企业以及深入过鞋服生产的一线,所积累下来的对于尺码推荐这个场景的理解深度,也就是 Knowhow。
但,只讨论 Knowhow 有用是浅薄的(一如今年上半年的我),对于企业而言,或者对于我们自己而言,我们需要知道我们的 Knowhow 是怎么来的,而实际上,用我的话说:
“Know-how 本身就是上下文层面的涌现。对于企业而言,积累上下文,可能就是下一个 Scaling Law。”
我相信,这就是企业 AI 下半场的终极真相。
一、 模型的 Scaling Law 已近黄昏,上下文的 Scaling Law 刚刚开始
对于 99% 的企业来说,Model Scaling(模型规模) 的游戏已经结束了。
通用的智商(IQ)已经变成了水电煤,你用 GPT-5,对手也用 GPT-5,这里没有护城河。
真正的战场转移到了 Context Scaling(上下文规模)。
如果说模型是“大脑”,那上下文(Context)就是**“记忆”和“阅历”**。这和人很像,对么?Knowhow 的积累不就是记忆和阅历吗?
一个刚毕业的博士生(高智商模型),如果没读过公司的历史文档、不懂行业的潜规则、不知道老板的偏好,他进公司第一天创造的价值,可能还不如一个只有大专学历、但干了 10 年的老员工(低智商、高上下文)。
企业 AI 的核心矛盾,不再是“模型不够聪明”,而是“供给模型的上下文不够厚”。
二、 Know-how 不是玄学,是“被验证的上下文”
很多企业主喜欢把行业经验称为 Know-how,并认为这是一种只可意会不可言传的“玄学”。
但在架构师眼中,Know-how 是可以被解构的。
- 初级 Know-how 是数据: 比如一份《品牌手册.pdf》。
- 高级 Know-how 是逻辑: 比如“红色背景图在春节期间转化率高”。
- 顶级 Know-how 是涌现: 当我们将策略、数据、实时状态、历史反馈打包在一起,喂给 AI 时,AI 突然“懂了”你的生意。
这种“懂”,就是上下文层面的涌现 (Emergence at Context Level)。
传统的 RAG(检索增强生成)为什么不好用?因为它只是机械地切片、检索。它找回来的是“碎片”,而不是“语境”。是静态的,而不是动态的。
它给了 AI 一块砖,却没告诉 AI 这块砖是要用来盖教堂,还是盖猪圈。
三、 谁能结构化 Context,谁就掌握了新时代的摩尔定律
如果说 Context Scaling 是新的定律,那么企业的战略重心就必须转移:
从“收集数据 (Data Collection)” 转向 “治理上下文 (Context Governance)”。
因此,企业需要构建一层全新的中间件,或者说全新的中台结构,不是数据中台,而是全新的,能够管理企业上下文的,能够实现对于企业深度理解的治理框架——我们称之为 AAG (Agentic Asset Governance),灵动资产治理平台。
它的核心使命,就是把企业里那些死的、散乱的非结构化数据,实时“编译”成 AI Agent 能读懂的结构化上下文。
- 当 Agent 要写文案时,AAG 喂给它的不是 100 个文档,而是一个精炼的 Context Payload(上下文包):包含当前的营销策略、禁忌词库、竞品动态和高转化模板。
- 当 Agent 要做图时,AAG 喂给它的不是整个图库,而是经过筛选的、版权合规的、符合当季色板的视觉元素。
这就是“上下文即服务” (Context as a Service)。
当企业的所有内容、知识都以关联工作流的方式跑在 AAG 上,当所有智能体以及对应的智能体的反馈数据都能回到 AAG 上,所谓的 Knowhow 势必会涌现。
四、 结语
在 AI 的上半场,OpenAI 帮我们解决了“智商”问题。
在 AI 的下半场,企业必须自己解决“记性”问题。(我们花了太多的时间在私有数据和微调上,但这不是企业的真相,可被企业用于微调大模型的数据,并不值钱,因为,那不是 knowhow)
未来的企业竞争力公式,或许应该改写为:
AI 生产力 = (通用模型智商) × (企业私有上下文)
模型智商是线性的,但上下文的质量是指数级的。
谁能积累更厚、更准、更灵动的上下文,谁就能在 AI 时代跑出自己的 Scaling Law。
不要再迷信大模型了,去建设你的上下文吧。
我是臧青,一个正在尝试用 AI 重构企业服务逻辑的架构师。
如果你也对 企业级 Knowhow 这个话题感兴趣,欢迎来聊聊。