更改

删除50字节 、 2024年5月27日 (星期一)
无编辑摘要
第1行: 第1行: −
=1. 介绍=
+
=介绍=
   −
==1.1 因果涌现的定义==
+
==因果涌现的定义==
 
*'''涌现(emergence)''' 是复杂系统中最重要的概念之一,描述了一种现象:一个整体展现了组成它的部分所不具有的特性。
 
*'''涌现(emergence)''' 是复杂系统中最重要的概念之一,描述了一种现象:一个整体展现了组成它的部分所不具有的特性。
   第8行: 第8行:  
*'''因果涌现(causal emergence)''' 是一类特殊的涌现现象,指系统中宏观层面的事件可能比微观层面有更强的因果联系。其中,因果关系的强度可以用有效信息 (EI) 来衡量 。
 
*'''因果涌现(causal emergence)''' 是一类特殊的涌现现象,指系统中宏观层面的事件可能比微观层面有更强的因果联系。其中,因果关系的强度可以用有效信息 (EI) 来衡量 。
   −
==1.2 因果涌现的识别==
+
==因果涌现的识别==
===1.2.1 具体解决方案以及传统方案的不足===
+
===具体解决方案以及传统方案的不足===
    
*'''Klein提出的复杂网络中的因果涌现'''
 
*'''Klein提出的复杂网络中的因果涌现'''
第20行: 第20行:  
这两种方法需明确的宏观与微观动力学马尔可夫转移矩阵,导致对罕见事件概率及连续数据的预测存在偏差。
 
这两种方法需明确的宏观与微观动力学马尔可夫转移矩阵,导致对罕见事件概率及连续数据的预测存在偏差。
   −
===1.2.2 基于机器学习的神经信息压缩方法===
+
===基于机器学习的神经信息压缩方法===
    
*'''神经信息压缩器的定义'''
 
*'''神经信息压缩器的定义'''
第28行: 第28行:  
因果表征学习旨在提取观测数据背后的因果隐变量,编码过程可理解为粗粒化。因果涌现识别与因果表征学习相似,但目标不同:前者寻找更优粗粒化策略,后者提取数据中的因果关系。多尺度建模和粗粒化操作引入了新的理论问题。
 
因果表征学习旨在提取观测数据背后的因果隐变量,编码过程可理解为粗粒化。因果涌现识别与因果表征学习相似,但目标不同:前者寻找更优粗粒化策略,后者提取数据中的因果关系。多尺度建模和粗粒化操作引入了新的理论问题。
   −
=2. 问题定义=
+
=问题定义=
   −
==2.1 背景==
+
==背景==
   −
===2.1.1 动力学的定义===
+
===动力学的定义===
 
假设讨论的复杂系统动力学可由如下微分方程组描述:
 
假设讨论的复杂系统动力学可由如下微分方程组描述:
 
<math>\frac{d{\mathbf{x}}}{dt} = g(\mathbf{x}(t),ξ) \tag{1} </math>
 
<math>\frac{d{\mathbf{x}}}{dt} = g(\mathbf{x}(t),ξ) \tag{1} </math>
第39行: 第39行:  
通常,微观动态 <math>g</math> 总是马尔可夫的,可以等效地建模为条件概率 <math>Pr(\mathbf{x}(t + dt)|\mathbf{x}(t))</math> 。根据该概率可求得系统状态的离散样本,这些状态即为微观状态。
 
通常,微观动态 <math>g</math> 总是马尔可夫的,可以等效地建模为条件概率 <math>Pr(\mathbf{x}(t + dt)|\mathbf{x}(t))</math> 。根据该概率可求得系统状态的离散样本,这些状态即为微观状态。
   −
===2.1.2 定义===
+
===定义===
 
*'''微观态'''
 
*'''微观态'''
 
动力系统状态(式1)<math>\mathbf{x}_t</math> 的每一个样本称为时间步长 <math>t</math> 的一个微观状态。以相等间隔和有限时间步长 T 采样的多变量时间序列 <math>\mathbf{x}_1,\mathbf{x}_2,···,\mathbf{x}_T</math> 可形成微观状态时间序列。
 
动力系统状态(式1)<math>\mathbf{x}_t</math> 的每一个样本称为时间步长 <math>t</math> 的一个微观状态。以相等间隔和有限时间步长 T 采样的多变量时间序列 <math>\mathbf{x}_1,\mathbf{x}_2,···,\mathbf{x}_T</math> 可形成微观状态时间序列。
第59行: 第59行:  
此公式不能排除一些琐碎的策略。例如,假设对于 <math>∀ \mathbf{y}_t ∈ \mathcal{R}^p</math>  , <math>q = 1</math> 维的 <math>\phi_q</math> 定义为 <math>\phi_q(\mathbf{x}_t) = 1</math> 。因此,相应的宏观动态只是 <math>d\mathbf{y}/dt = 0</math> 和 <math>\mathbf{y}(0) = 1</math>。由于宏观状态动态是琐碎的,粗粒化映射过于随意,此方程无意义。因此,必须对粗粒化策略和宏观动态设置限制以避免琐碎的策略和动态。
 
此公式不能排除一些琐碎的策略。例如,假设对于 <math>∀ \mathbf{y}_t ∈ \mathcal{R}^p</math>  , <math>q = 1</math> 维的 <math>\phi_q</math> 定义为 <math>\phi_q(\mathbf{x}_t) = 1</math> 。因此,相应的宏观动态只是 <math>d\mathbf{y}/dt = 0</math> 和 <math>\mathbf{y}(0) = 1</math>。由于宏观状态动态是琐碎的,粗粒化映射过于随意,此方程无意义。因此,必须对粗粒化策略和宏观动态设置限制以避免琐碎的策略和动态。
   −
==2.2 有效粗粒化策略和宏观动力学==
+
==有效粗粒化策略和宏观动力学==
 
有效粗粒化策略应是一个宏观态中可以'''尽量多地保存微观态信息'''的压缩映射。
 
有效粗粒化策略应是一个宏观态中可以'''尽量多地保存微观态信息'''的压缩映射。
   第70行: 第70行:  
此定义符合近似因果模型抽象。
 
此定义符合近似因果模型抽象。
   −
==2.3 问题定义==
+
==问题定义==
 
*'''最大化系统动力学的有效信息'''
 
*'''最大化系统动力学的有效信息'''
 
若要寻找一个最具信息量的宏观动力学,则需在所有可能的有效策略和动态中优化粗粒化策略和宏观动态。
 
若要寻找一个最具信息量的宏观动力学,则需在所有可能的有效策略和动态中优化粗粒化策略和宏观动态。
68

个编辑