战略推演不是“建模”:论推理的缺失

如果仅仅是数据建模,缺乏公理与逻辑推导,难以从静态地图进化为动态兵棋。而这正是实现战略推演必须跨越的逻辑深坑。

陈加兴
陈加兴

StrategyLogic创始人

近期,我们审视了两个典型项目:一个是基于约束的业务管理对象本体,另一个是基于 LLM 的社会模拟中的本体抽取。尽管它们都借用了本体论(Ontology)1,成功构建了数据的“骨架”,后者号称能够“推演未来”,但因缺乏必要的知识推理能力,注定无法支撑真正的战略推演

核心差异:真正的战略推演依赖于描述逻辑公理化系统,旨在从已知事实中自动推导出隐含的新知识

而上述两者仅停留在定义结构和校验数据的建模层面,缺失了推演所需的逻辑“灵魂”。

要理解为何这些模型无法推演,必须厘清数据建模(Modeling)与知识推理(Reasoning)的区别。

数据建模是记录世界。它关注的是显式事实:现状的存储与组织。

就像绘制一张静态地图,精确标记出“哪里有山”、“哪里有河”。

核心问题:“数据是否符合预定义的格式?”例如:发票税率是否填写?实体类型是否正确?

知识推理是表征世界。它关注的是隐式逻辑:未来的演化与生成。

就像在地图上运行兵棋推演,根据“水往低处流”、“军队遇山绕行”等公理,计算出“若上游决堤,下游何处必被淹没”。

核心问题:“基于现有事实,必然会导致什么新结果?”例如:若A垄断资源且B依赖该资源,则B必面临危机——即便数据库中从未直接记录过这条“危机”事实。

简言之:建模解决如何描述现状,而推理解决未来如何演化。没有推理引擎的驱动,本体模型也只是一套静止的数据库写入结构,无法产生任何关于未来的战略洞察。


案例剖析:为何只是高级建模?

案例一:业务类本体

此类项目常利用 OWL 的基数约束或 SWRL 规则进行合规检查。表面上看是在进行逻辑判断,实则是显式数据的逻辑映射,并未产生新知识。

❌ 现状:只是数据校验而非推理

% 典型的业务规则
税率不一致(?发票) ← 合同税率(?c) ≠ 发票税率(?i)
-- 本质是SQL查询
SELECT * FROM invoices WHERE tax_rate != contract_tax_rate

问题在哪里?

  1. 前提已包含结论:税率不一致的事实已由人工录入,只是给它打了个语义标签。
  2. 无新知生成:没有推导出任何数据库中不存在的关系。
  3. 封闭性:无法利用传递性或对称性发现未存储的关联,也无法在信息缺失时进行自动补全。

它回答的是“数据是否合规”,而非“隐含了什么风险”。

✅ 目标:真正的风险推理

真正的推理应能从显式数据中,计算出从未被记录的隐性风险链条:

% 1. 定义公理:付款比例之和若不为1,则存在逻辑缺陷
合同逻辑缺陷(?c) ← 
    有付款项(?c, ?t1) ^ 有付款项(?c, ?t2) ^ 
    比例(?t1, ?r1) ^ 比例(?t2, ?r2) ^ 
    求和(?r1, ?r2, ?total) ^ ?total ≠ 1.0

% 2. 定义公理:逻辑缺陷 + 已生效 = 法律风险
法律风险(?c) ← 合同逻辑缺陷(?c) ^ 状态(?c, "已生效")

% 3. 定义公理:大额 + 法律风险 = 需法务复核
需法务复核(?c) ← 法律风险(?c) ^ 金额(?c, ?amt) ^ ?amt > 100万

% --- 输入事实(从未直接输入“需法务复核”) ---
事实:合同A (30% + 80% = 110%), 状态:已生效, 金额:200万

% --- 推理机自动输出 ---
✅ 结论:需法务复核(合同A) 

这是一个从未被任何人标记,但逻辑上必然成立的新事实,它回答了“合同A存在什么隐含风险”而非“合同A的税率是否正确”。

案例二:社会本体抽取

该项目利用 LLM 从文本提取实体,生成 Pydantic 模型或 JSON Schema。这本质上是非结构化到结构化的 ETL 过程

❌ 现状:只有类型定义而非推理

// LLM 生成的 Schema
{
    "entities": ["Student", "Professor", "Person"],
    "relations": ["FRIENDS_WITH", "ADVISES"]
}

问题在哪里?

  • 缺乏语义公理:定义了 FRIENDS_WITH,但未定义其社交性质(是否传递?是否对称?)。
  • 无语义蕴含:未定义 Student ⊑ Person(学生是人)。查询“所有人的社交行为”时,系统无法确定是否应该自动包含学生数据。
  • 结果:系统只能被动存储数据,无法推断“某类人必然具备某种特征”或“群体层面的涌现现象”。

✅ 目标:真正的社会模拟推理

真正的社会本体应定义行为公理,让智能体推导出未直接编码的社会规则:

% 1. 定义社交公理:共同兴趣可跨越对立阵营建立潜在友谊
可能成为朋友(?a, ?c) ← 
    朋友(?a, ?b) ^ 朋友(?b, ?c) ^ 
    兴趣(?a, ?i) ^ 兴趣(?c, ?i) ^ 
    阵营(?a) ≠ 阵营(?c)  % 即使阵营不同

% 2. 定义影响力公理:活跃粉丝权重更高
影响力得分(?p) = (活跃粉丝数 × 3 + 沉默粉丝数 × 1) / 总粉丝数

% 3. 定义演化公理:观点对立导致群体极化
群际对立风险(?群A, ?群B) ← 
    领袖(?l1, ?群A) ^ 领袖(?l2, ?群B) ^
    观点(?l1, ?话题, "反对") ^ 观点(?l2, ?话题, "支持")

% --- 输入事实 ---
事实:张三(反对教改) vs 李四(支持教改)
事实:王五(张粉) 与 赵六(李粉) 都有兴趣"教育公平"

% --- 推理机自动输出 ---
✅ 结论1:可能成为朋友(王五, 赵六) 
✅ 结论2:群际对立风险(张粉群, 李粉群) 

尽管分属对立阵营,但基于兴趣公理可以推导出的潜在连接;以及基于领袖观点可以推导出的群体极化风险,都是从未被标记的群体层面涌现现象。

它们回答了“在当前社会结构下,哪些潜在的友谊关系可能存在”以及“哪些群体间存在激化对立的风险”而非“张三和李四的观点是什么”。

离推理还差什么?差TBox

知识推理系统严格区分两部分:

  • TBox(Terminological Box):概念层知识。如:所有人都会死、朋友关系具有传递性。
  • ABox(Assertional Box):实例层事实。如:苏格拉底是人、Alice 是 Bob 的朋友。

推理的本质 = TBox 约束在 ABox 上的应用

当前项目只有 ABox 操作(给数据打标签、给实例分类),完全缺失 TBox。没有公理,就没有推导。真正的推理引擎必须定义 TBox,才能在输入实例后,自动计算出未存储的事实

经典推理演示

% [TBox] 公理定义
1. influences(x, y) ^ influences(y, z) -> indirectly_influences(x, z)  (传递性)
2. Influencer SubClassOf Person                                      (子类蕴含)

% [ABox] 输入事实
1. Alice influences Bob
2. Bob influences Charlie
3. Alice is an Influencer

% [推理机] 自动输出的新知识
✅ Alice indirectly_influences Charlie  (基于传递性,此关系从未存入数据库)
✅ Alice is a Person                    (基于子类蕴含,无需显式声明)
✅ Alice has "ManipulationRisk"         (基于高阶规则链的深层洞察)

离战略推演还有多远?

要支撑战略推演,必须从静态记录跨越到动态仿真2。当前实践与目标存在三个维度的鸿沟:

维度 数据模型 战略本体 关键差距
逻辑深度 浅层关联:仅存储显式关系(A 投资 B)。 深层推导:基于公理推导隐含态势。例:A 垄断资源 X + B 依赖 X → 自动推导 B 面临生存危机。 从检索已知到发现未知需引入传递链、逆属性及复杂规则。
世界观 封闭世界:没记录即不存在/错误。适合财务对账。 开放世界:没记录仅代表未知。需基于线索推断概率(如:推测合作概率 67%)。 从数据校验到不确定性决策需支持非单调逻辑和概率推理。
动态性 静态快照:记录某一时刻的状态。 因果演化内置状态迁移规则。例:政策 P → 成本 C↑ → 技术 T 被替代。 从历史归档到未来沙盘需结合事件演算进行反事实推演。

💡 为什么开放世界假设至关重要?

封闭世界是数据库思维:数据没记录“A 与 B 合作” → 结论:无合作 → 推演失误(低估联盟力量)。

开放世界是推理思维:数据没记录 → 结论:未知 → 结合“共同投资人”线索 → 推断合作概率 67%推演稳健(覆盖多种可能性)。

这就是数据校验与战略推演的本质区别:前者追求确定性的对错,后者处理不确定性的可能。

总结与路径

目前的业务本体和社会本体抽取只是构建了推演所需的数据底座。它们解决了多源异构数据的统一存储问题,这是必要的第一步,但远非终点。

战略本体必须是一个可执行的形式化系统

  1. 公理化:将商业直觉(如“垄断导致创新停滞”)转化为机器可理解的逻辑公理(TBox)。
  2. 动态化:不仅描述“是什么”,还要定义“如果...那么...”的因果链条。
  3. 推演化:在输入初始条件和干扰变量后,自动运行推理机,输出多种可能的未来态势分支。

简言之:我们目前拥有的是静态语义地图(Semantic Map),而战略推演需要的是能模拟地形变化、天气影响和行军路线的兵棋推演系统(Reasoning Engine)。

从地图到推演系统,中间隔着形式化逻辑与因果建模的深坑。


附录:常见问答

Q1:OWL和SWRL到底算不算推理?

A: OWL(尤其是 OWL 2 DL)本身支持真正的推理,但前提是必须定义完整的TBox公理。如果只用了OWL的轻量级子集(基数约束),相当于开着跑车在小区里代步。SWRL规则也可以是推理载体,但案例一的规则多为单步条件判断,未形成递归推导链。

Q2:LLM能不能弥补这个差距?

A: LLM 擅长知识摄取(从文本抽取填充ABox),但不擅长形式化推理(它的推理是统计模式复现,非逻辑必然)。理想架构是:LLM负责填充事实(ABox) + 符号推理引擎负责逻辑推导(TBox)。案例二当前只做了前半段,丢了最核心的后半段。

注释参考

  1. 本文的本体论指的是描述逻辑(Description Logic)的形式化知识表示系统,而非广义上的哲学本体论。

  2. StrategyLogic 本体论:智能推演的核心引擎

技术概念混淆?数字化路径不明?加入200+成员的企业AI战略前沿社区,获得最新洞察和资源!