第1行: |
第1行: |
− | =1. 介绍= | + | =介绍= |
| | | |
− | ==1.1 因果涌现的定义== | + | ==因果涌现的定义== |
| *'''涌现(emergence)''' 是复杂系统中最重要的概念之一,描述了一种现象:一个整体展现了组成它的部分所不具有的特性。 | | *'''涌现(emergence)''' 是复杂系统中最重要的概念之一,描述了一种现象:一个整体展现了组成它的部分所不具有的特性。 |
| | | |
第8行: |
第8行: |
| *'''因果涌现(causal emergence)''' 是一类特殊的涌现现象,指系统中宏观层面的事件可能比微观层面有更强的因果联系。其中,因果关系的强度可以用有效信息 (EI) 来衡量 。 | | *'''因果涌现(causal emergence)''' 是一类特殊的涌现现象,指系统中宏观层面的事件可能比微观层面有更强的因果联系。其中,因果关系的强度可以用有效信息 (EI) 来衡量 。 |
| | | |
− | ==1.2 因果涌现的识别== | + | ==因果涌现的识别== |
− | ===1.2.1 具体解决方案以及传统方案的不足=== | + | ===具体解决方案以及传统方案的不足=== |
| | | |
| *'''Klein提出的复杂网络中的因果涌现''' | | *'''Klein提出的复杂网络中的因果涌现''' |
第20行: |
第20行: |
| 这两种方法需明确的宏观与微观动力学马尔可夫转移矩阵,导致对罕见事件概率及连续数据的预测存在偏差。 | | 这两种方法需明确的宏观与微观动力学马尔可夫转移矩阵,导致对罕见事件概率及连续数据的预测存在偏差。 |
| | | |
− | ===1.2.2 基于机器学习的神经信息压缩方法=== | + | ===基于机器学习的神经信息压缩方法=== |
| | | |
| *'''神经信息压缩器的定义''' | | *'''神经信息压缩器的定义''' |
第28行: |
第28行: |
| 因果表征学习旨在提取观测数据背后的因果隐变量,编码过程可理解为粗粒化。因果涌现识别与因果表征学习相似,但目标不同:前者寻找更优粗粒化策略,后者提取数据中的因果关系。多尺度建模和粗粒化操作引入了新的理论问题。 | | 因果表征学习旨在提取观测数据背后的因果隐变量,编码过程可理解为粗粒化。因果涌现识别与因果表征学习相似,但目标不同:前者寻找更优粗粒化策略,后者提取数据中的因果关系。多尺度建模和粗粒化操作引入了新的理论问题。 |
| | | |
− | =2. 问题定义= | + | =问题定义= |
| | | |
− | ==2.1 背景== | + | ==背景== |
| | | |
− | ===2.1.1 动力学的定义=== | + | ===动力学的定义=== |
| 假设讨论的复杂系统动力学可由如下微分方程组描述: | | 假设讨论的复杂系统动力学可由如下微分方程组描述: |
| <math>\frac{d{\mathbf{x}}}{dt} = g(\mathbf{x}(t),ξ) \tag{1} </math> | | <math>\frac{d{\mathbf{x}}}{dt} = g(\mathbf{x}(t),ξ) \tag{1} </math> |
第39行: |
第39行: |
| 通常,微观动态 <math>g</math> 总是马尔可夫的,可以等效地建模为条件概率 <math>Pr(\mathbf{x}(t + dt)|\mathbf{x}(t))</math> 。根据该概率可求得系统状态的离散样本,这些状态即为微观状态。 | | 通常,微观动态 <math>g</math> 总是马尔可夫的,可以等效地建模为条件概率 <math>Pr(\mathbf{x}(t + dt)|\mathbf{x}(t))</math> 。根据该概率可求得系统状态的离散样本,这些状态即为微观状态。 |
| | | |
− | ===2.1.2 定义=== | + | ===定义=== |
| *'''微观态''' | | *'''微观态''' |
| 动力系统状态(式1)<math>\mathbf{x}_t</math> 的每一个样本称为时间步长 <math>t</math> 的一个微观状态。以相等间隔和有限时间步长 T 采样的多变量时间序列 <math>\mathbf{x}_1,\mathbf{x}_2,···,\mathbf{x}_T</math> 可形成微观状态时间序列。 | | 动力系统状态(式1)<math>\mathbf{x}_t</math> 的每一个样本称为时间步长 <math>t</math> 的一个微观状态。以相等间隔和有限时间步长 T 采样的多变量时间序列 <math>\mathbf{x}_1,\mathbf{x}_2,···,\mathbf{x}_T</math> 可形成微观状态时间序列。 |
第59行: |
第59行: |
| 此公式不能排除一些琐碎的策略。例如,假设对于 <math>∀ \mathbf{y}_t ∈ \mathcal{R}^p</math> , <math>q = 1</math> 维的 <math>\phi_q</math> 定义为 <math>\phi_q(\mathbf{x}_t) = 1</math> 。因此,相应的宏观动态只是 <math>d\mathbf{y}/dt = 0</math> 和 <math>\mathbf{y}(0) = 1</math>。由于宏观状态动态是琐碎的,粗粒化映射过于随意,此方程无意义。因此,必须对粗粒化策略和宏观动态设置限制以避免琐碎的策略和动态。 | | 此公式不能排除一些琐碎的策略。例如,假设对于 <math>∀ \mathbf{y}_t ∈ \mathcal{R}^p</math> , <math>q = 1</math> 维的 <math>\phi_q</math> 定义为 <math>\phi_q(\mathbf{x}_t) = 1</math> 。因此,相应的宏观动态只是 <math>d\mathbf{y}/dt = 0</math> 和 <math>\mathbf{y}(0) = 1</math>。由于宏观状态动态是琐碎的,粗粒化映射过于随意,此方程无意义。因此,必须对粗粒化策略和宏观动态设置限制以避免琐碎的策略和动态。 |
| | | |
− | ==2.2 有效粗粒化策略和宏观动力学== | + | ==有效粗粒化策略和宏观动力学== |
| 有效粗粒化策略应是一个宏观态中可以'''尽量多地保存微观态信息'''的压缩映射。 | | 有效粗粒化策略应是一个宏观态中可以'''尽量多地保存微观态信息'''的压缩映射。 |
| | | |
第70行: |
第70行: |
| 此定义符合近似因果模型抽象。 | | 此定义符合近似因果模型抽象。 |
| | | |
− | ==2.3 问题定义== | + | ==问题定义== |
| *'''最大化系统动力学的有效信息''' | | *'''最大化系统动力学的有效信息''' |
| 若要寻找一个最具信息量的宏观动力学,则需在所有可能的有效策略和动态中优化粗粒化策略和宏观动态。 | | 若要寻找一个最具信息量的宏观动力学,则需在所有可能的有效策略和动态中优化粗粒化策略和宏观动态。 |