第269行: |
第269行: |
| | | |
| ===模型约简=== | | ===模型约简=== |
− | 模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解的近似方法和基于Krylov的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov。两种方法都是基于粗粒化前后输出函数的误差损失函数。 | + | 因果涌现的一个重要的指标就是粗粒化策略的制定,而粗粒化策略在控制论中有一个非常接近的操作,就是模型约简,Antoulas就曾经写过相关的综述<ref>Antoulas A C. An overview of approximation methods for large-scale dynamical systems[J]. Annual reviews in Control, 2005, 29(2): 181-190.</ref>。 |
| + | |
| + | 模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解的近似方法和基于Krylov的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov。两种方法都是基于粗粒化前后输出函数的误差损失函数,而目标就是寻找能使误差最小的约简参数矩阵<math>W </math>。 |
| | | |
| 所谓的大尺度动力学一般情况下,如果时间是连续的,就可以表示为 | | 所谓的大尺度动力学一般情况下,如果时间是连续的,就可以表示为 |
第292行: |
第294行: |
| | | |
| ===动力学模式分解=== | | ===动力学模式分解=== |
− | 对于动力系统,如果时间是连续的,就可以表示为
| + | 动力学模型约减,属于利用线性变换同时对变量、动力学、观测函数进行降维。而除此之外,还有另一种和因果涌现中粗粒化策略相近,但是依然基于误差最小化来进行优化的操作,就是动力学模式分解。对于动力系统,如果时间是连续的,就可以表示为 |
| | | |
| <math>\frac{dx}{dt}=f(x,u) </math> | | <math>\frac{dx}{dt}=f(x,u) </math> |
第323行: |
第325行: |
| | | |
| <math>\min||x_{t+1}-Ax_t|| </math> | | <math>\min||x_{t+1}-Ax_t|| </math> |
| + | |
| + | 模型约简和动力学模式分解虽然都和模型粗粒化十分接近,但是他们都没有基于有效信息的优化,本质上都是默认了一定会损失信息,而不会增强因果效应。后续的证明<ref><blockquote>Liu K, Yuan B, Zhang J. An Exact Theory of Causal Emergence for Linear Stochastic Iteration Systems[J]. arXiv preprint arXiv:2405.09207, 2024.</blockquote></ref>中我们知道其实有效信息最大化的最优解集包含因果涌最大化的解集,因此如果要优化因果涌现,可以先最小化误差,在最小误差的解集中寻找最佳的粗粒化策略。 |
| | | |
| ===马尔可夫链的简化=== | | ===马尔可夫链的简化=== |
| + | 这里[math]P[/math]为微观状态的马尔科夫概率转移矩阵,维度为:[math]N\times N[/math],这里N为微观的状态数;而[math]P'[/math]为对[math]P[/math]做粗粒化操作之后得到的宏观态的马尔科夫概率转移矩阵,维度为[math]M\times M[/math],其中[math]M<N[/math]为宏观状态数。 |
| + | |
| + | 关于如何对马尔科夫概率转移矩阵实施粗粒化的方法,往往体现为两步:1、对微观状态做归并,将N个微观态,归并为M个宏观态;2、对马尔科夫转移矩阵做约简。关于具体的粗粒化马尔科夫链的方法,请参考[[马尔科夫链的粗粒化]]。 |
| + | |
| + | 如果计算得出的CE>0,则称该系统发生了[[因果涌现]],否则没有发生。 |
| + | |
| + | 下面,我们展示一个具体的因果涌现的例子: |
| + | {| style="text-align: center;" |
| + | |+马尔科夫链示例 |
| + | |- |
| + | |<math> |
| + | P_m=\begin{pmatrix} |
| + | &1/3 &1/3 &1/3 &0& \\ |
| + | &1/3 &1/3 &1/3 &0& \\ |
| + | &1/3 &1/3 &1/3 &0& \\ |
| + | &0 &1 &0 &1& \\ |
| + | \end{pmatrix} |
| + | </math>, |
| + | ||<math> |
| + | P_M=\begin{pmatrix} |
| + | &1 &0 & \\ |
| + | &0 &1 & \\ |
| + | \end{pmatrix} |
| + | </math>. |
| + | |- |
| + | |[math]\begin{aligned}&Det(P_m)=0.81\ bits,\\&Deg(P_m)=0\ bits,\\&EI(P_m)=0.81\ bits\end{aligned}[/math]||[math]\begin{aligned}&Det(P_M)=1\ bits,\\&Deg(P_M)=0\ bits,\\&EI(P_M)=1\ bits\end{aligned}[/math] |
| + | |}在这个例子中,微观态的转移矩阵是一个4*4的矩阵,其中前三个状态彼此以1/3的概率相互转移,这导致该转移矩阵具有较小的确定性,因此EI也不是很大为0.81。然而,当我们对该矩阵进行粗粒化,也就是把前三个状态合并为一个状态a,而最后一个状态转变为一个宏观态b。这样所有的原本三个微观态彼此之间的转移就变成了宏观态a到a内部的转移了。因此,转移概率矩阵也就变成了[math]P_M[/math],它的EI为1。在这个例子中,可以计算它的[[因果涌现度量]]为: |
| + | |
| + | <math> |
| + | CE=EI(P_M)-EI(P_m)=1-0.81=0.19\ bits |
| + | </math> |
| + | |
| + | 即存在着0.19比特的因果涌现。 |
| + | |
| + | 有时,我们也会根据归一化的EI来计算[[因果涌现度量]],即: |
| + | |
| + | <math> |
| + | ce=Eff(P_M)-Eff(P_m)=1-0.405=0.595 |
| + | </math> |
| | | |
| + | 由此可见,由于归一化的EI消除了系统尺寸的影响,因此因果涌现度量更大。 |
| ==参考文献== | | ==参考文献== |
| <references /> | | <references /> |