更改

跳到导航 跳到搜索
添加185字节 、 2024年8月16日 (星期五)
第324行: 第324行:  
因果涌现的一个重要的指标就是粗粒化策略的制定,而粗粒化策略在控制论中有一个非常接近的操作,就是模型约简,Antoulas就曾经写过相关的综述<ref name=":15">Antoulas A C. An overview of approximation methods for large-scale dynamical systems[J]. Annual reviews in Control, 2005, 29(2): 181-190.</ref>。
 
因果涌现的一个重要的指标就是粗粒化策略的制定,而粗粒化策略在控制论中有一个非常接近的操作,就是模型约简,Antoulas就曾经写过相关的综述<ref name=":15">Antoulas A C. An overview of approximation methods for large-scale dynamical systems[J]. Annual reviews in Control, 2005, 29(2): 181-190.</ref>。
   −
模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解<ref name=":15" />的近似方法和基于Krylov<ref name=":15" /><ref>Boley D L. Krylov space methods on state-space control models[J]. Circuits, Systems and Signal Processing, 1994, 13: 733-758.</ref>的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov。两种方法都是基于粗粒化前后输出函数的误差损失函数,而目标就是寻找能使误差最小的约简参数矩阵<math>W </math>。
+
模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解<ref name=":15" /><ref>Gallivan K, Grimme E, Van Dooren P. Asymptotic waveform evaluation via a Lanczos method[J]. Applied Mathematics Letters, 1994, 7(5): 75-80.</ref>的近似方法和基于Krylov<ref name=":15" /><ref>CHRISTIAN DE VILLEMAGNE & ROBERT E. SKELTON (1987) Model reductions using a projection formulation, International Journal of Control, 46:6, 2141-2169, DOI: 10.1080/00207178708934040 </ref><ref>Boley D L. Krylov space methods on state-space control models[J]. Circuits, Systems and Signal Processing, 1994, 13: 733-758.</ref>的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov<ref>Gugercin S. An iterative SVD-Krylov based method for model reduction of large-scale dynamical systems[J]. Linear Algebra and its Applications, 2008, 428(8-9): 1964-1986.</ref><ref>Khatibi M, Zargarzadeh H, Barzegaran M. Power system dynamic model reduction by means of an iterative SVD-Krylov model reduction method[C]//2016 IEEE Power & Energy Society Innovative Smart Grid Technologies Conference (ISGT). IEEE, 2016: 1-6.</ref>。两种方法都是基于粗粒化前后输出函数的误差损失函数,而目标就是寻找能使误差最小的约简参数矩阵<math>W </math>。
   −
一般情况下基于模型约简前后输出函数的误差损失函数<math>||\hat{z}-z|| </math>判断粗粒化参数默认了系统约简的过程会损失信息量,因此误差最小化是判断约简方法有效性的唯一方法。但是如果从因果涌现角度考虑,[[有效信息]]会因为降维而增大,这也是因果涌现研究中的粗粒化策略和控制论中的模型约简最大的不同。当动力系统是随机的时候,直接计算损失函数会因为随机性的存在,导致损失函数的稳定性无法保证,因而约简的有效性也会无法准确测量。而本身就是基于随机动力系统的有效信息和因果涌现指标,一定程度上可以增加评判指标的有效性,使对随机动力系统的控制研究更加严谨。
+
一般情况下基于模型约简前后输出函数的误差损失函数<math>||\hat{z}-z|| </math>判断粗粒化参数默认了系统约简的过程会损失信息量,因此误差最小化是判断约简方法有效性的唯一方法。但是如果从因果涌现角度考虑,[[有效信息]]会因为降维而增大,这也是因果涌现研究中的粗粒化策略和控制论中的模型约简最大的不同。当动力系统是随机的时候<ref>CHRISTIAN DE VILLEMAGNE & ROBERT E. SKELTON (1987) Model reductions using a projection formulation, International Journal of Control, 46:6, 2141-2169, DOI: 10.1080/00207178708934040 </ref>,直接计算损失函数会因为随机性的存在,导致损失函数的稳定性无法保证,因而约简的有效性也会无法准确测量。而本身就是基于随机动力系统的有效信息和因果涌现指标,一定程度上可以增加评判指标的有效性,使对随机动力系统的控制研究更加严谨。
    
===动力学模式分解===
 
===动力学模式分解===
动力学模式分解,属于利用线性变换同时对变量、动力学、观测函数进行降维。而除此之外,还有另一种和因果涌现中粗粒化策略相近,但是依然基于误差最小化来进行优化的操作,就是动力学模式分解。对于动力系统,如果时间是连续的,就可以表示为
+
动态模态分解模型的基本思想是直接从数据模拟得到的流场中提取流动的动态信息,根据不同频率的流场变动寻找数据映射,基于动态非线性无穷维转化成动态线性有穷维的方式,采用了Arnoldi 方法以及奇异值分解SVD降维的思想,借鉴了ARIMA、SARIMA 以及季节模型等许多时间序列的关键特征,被广泛的使用在数学、物理、金融等领域<ref>J. Grosek and J. N. Kutz, Dynamic mode decomposition for real-time background/foreground separation in video, arXiv:1404.7592.</ref>。
   −
<math>\frac{dx}{dt}=f(x,u) </math>
+
动力学模式分解,属于利用线性变换同时对变量、动力学、观测函数进行降维<ref>B. Brunton, L. Johnson, J. Ojemann and J. N. Kutz, Extracting spatial-temporal coherent patterns in large-scale neural recordings using dynamic mode decomposition arXiv:1409.5496</ref>。而除此之外,还有另一种和因果涌现中粗粒化策略相近,但是依然基于误差最小化来进行优化的操作,就是动力学模式分解。对于动力系统,如果时间是连续的,就可以表示为<math>\frac{dx}{dt}=f(x,u) </math>时间离散的情况下,系统就可以表示为<math>x_{t+1}=f(x_t,u_t) </math>一般来说,动态系统的解析解难以得到,希望通过一种不需要知道方程就能够近似这个动态系统,并对这个系统做出一定的预测,动力学模式分解(DMD)便是其中一种解决方案。通过构造局部线性化的动态系统,对于一个连续系统,<math>\frac{dx}{dt}=Ax </math>该关系的解可以通过如下表达式来构建<math>x(t)=\sum_{k=1}^n\phi_ke^{\omega_kt}b_k=\Phi e^{\Omega t}b </math>其中,<math>\phi_k(\Phi) </math>、<math>\omega_k(\Omega) </math>分别是<math>A </math>的特征向量(矩阵)和特征值(矩阵),<math>b_k(b) </math>是以相应的特征向量为基的情况下的坐标。
   −
时间离散的情况下,系统就可以表示为
+
同样,对于一个离散系统,有<math>x_{t+1}=Ax_t </math>这个系统的解可以被表达为离散时间映射<math>A </math>的特征向量和特征值的组合<math>x_t=\sum_{k=1}^n\phi_k\lambda_k^tb_k=\Phi \Lambda^tb </math>其中,<math>b </math>是初始状态<math>x </math>在特征向量基下的坐标,即<math>x=\Phi b </math>。DMD算法就是寻找矩阵A的低阶(秩)近似,并且该近似解可以最近与原始的动态系统的轨迹,即<math>\min||x_{t+1}-Ax_t|| </math>
 
  −
<math>x_{t+1}=f(x_t,u_t) </math>
  −
 
  −
一般来说,动态系统的解析解难以得到,希望通过一种不需要知道方程就能够近似这个动态系统,并对这个系统做出一定的预测,动力学模式分解(DMD)便是其中一种解决方案。通过构造局部线性化的动态系统,对于一个连续系统,
  −
 
  −
<math>\frac{dx}{dt}=Ax </math>
  −
 
  −
该关系的解可以通过如下表达式来构建
  −
 
  −
<math>x(t)=\sum_{k=1}^n\phi_ke^{\omega_kt}b_k=\Phi e^{\Omega t}b </math>
  −
 
  −
其中,<math>\phi_k(\Phi) </math>、<math>\omega_k(\Omega) </math>分别是<math>A </math>的特征向量(矩阵)和特征值(矩阵),<math>b_k(b) </math>是以相应的特征向量为基的情况下的坐标。
  −
 
  −
同样,对于一个离散系统,有
  −
 
  −
<math>x_{t+1}=Ax_t </math>
  −
 
  −
这个系统的解可以被表达为离散时间映射<math>A </math>的特征向量和特征值的组合
  −
 
  −
<math>x_t=\sum_{k=1}^n\phi_k\lambda_k^tb_k=\Phi \Lambda^tb </math>
  −
 
  −
其中,<math>b </math>是初始状态<math>x </math>在特征向量基下的坐标,即<math>x=\Phi b </math>
  −
 
  −
DMD算法就是寻找矩阵A的低阶(秩)近似,并且该近似解可以最近与原始的动态系统的轨迹,即
  −
 
  −
<math>\min||x_{t+1}-Ax_t|| </math>
      
模型约简和动力学模式分解虽然都和模型粗粒化十分接近,但是他们都没有基于有效信息的优化,本质上都是默认了一定会损失信息,而不会增强因果效应。后续的证明<ref><blockquote>Liu K, Yuan B, Zhang J. An Exact Theory of Causal Emergence for Linear Stochastic Iteration Systems[J]. arXiv preprint arXiv:2405.09207, 2024.</blockquote></ref>中我们知道其实有效信息最大化的最优解集包含因果涌最大化的解集,因此如果要优化因果涌现,可以先最小化误差,在最小误差的解集中寻找最佳的粗粒化策略。
 
模型约简和动力学模式分解虽然都和模型粗粒化十分接近,但是他们都没有基于有效信息的优化,本质上都是默认了一定会损失信息,而不会增强因果效应。后续的证明<ref><blockquote>Liu K, Yuan B, Zhang J. An Exact Theory of Causal Emergence for Linear Stochastic Iteration Systems[J]. arXiv preprint arXiv:2405.09207, 2024.</blockquote></ref>中我们知道其实有效信息最大化的最优解集包含因果涌最大化的解集,因此如果要优化因果涌现,可以先最小化误差,在最小误差的解集中寻找最佳的粗粒化策略。
第368行: 第342行:  
关于如何对马尔科夫概率转移矩阵实施粗粒化的方法,往往体现为两步:1、对微观状态做归并,将N个微观态,归并为M个宏观态;2、对马尔科夫转移矩阵做约简。关于具体的粗粒化马尔科夫链的方法,请参考[[马尔科夫链的粗粒化]]。
 
关于如何对马尔科夫概率转移矩阵实施粗粒化的方法,往往体现为两步:1、对微观状态做归并,将N个微观态,归并为M个宏观态;2、对马尔科夫转移矩阵做约简。关于具体的粗粒化马尔科夫链的方法,请参考[[马尔科夫链的粗粒化]]。
   −
如果计算得出的CE>0,则称该系统发生了[[因果涌现]],否则没有发生。
+
如果计算得出的CE>0,则称该系统发生了[[因果涌现]],否则没有发生。由于归一化的EI消除了系统尺寸的影响,因此因果涌现度量更大。我们也可以把因果涌现作为指标,评判马尔科夫链的简化是否最佳。
 
  −
下面,我们展示一个具体的因果涌现的例子:
  −
{| style="text-align: center;"
  −
|+马尔科夫链示例
  −
|-
  −
|<math>
  −
P_m=\begin{pmatrix}
  −
&1/3    &1/3          &1/3          &0& \\
  −
&1/3    &1/3          &1/3          &0& \\
  −
&1/3    &1/3          &1/3          &0& \\
  −
&0      &1            &0            &1& \\
  −
\end{pmatrix}
  −
</math>,
  −
||<math>
  −
P_M=\begin{pmatrix}
  −
&1      &0            & \\
  −
&0      &1            & \\
  −
\end{pmatrix}
  −
</math>.
  −
|-
  −
|[math]\begin{aligned}&Det(P_m)=0.81\ bits,\\&Deg(P_m)=0\ bits,\\&EI(P_m)=0.81\ bits\end{aligned}[/math]||[math]\begin{aligned}&Det(P_M)=1\ bits,\\&Deg(P_M)=0\ bits,\\&EI(P_M)=1\ bits\end{aligned}[/math]
  −
|}在这个例子中,微观态的转移矩阵是一个4*4的矩阵,其中前三个状态彼此以1/3的概率相互转移,这导致该转移矩阵具有较小的确定性,因此EI也不是很大为0.81。然而,当我们对该矩阵进行粗粒化,也就是把前三个状态合并为一个状态a,而最后一个状态转变为一个宏观态b。这样所有的原本三个微观态彼此之间的转移就变成了宏观态a到a内部的转移了。因此,转移概率矩阵也就变成了[math]P_M[/math],它的EI为1。在这个例子中,可以计算它的[[因果涌现度量]]为:
  −
 
  −
<math>
  −
CE=EI(P_M)-EI(P_m)=1-0.81=0.19\ bits
  −
</math>
  −
 
  −
即存在着0.19比特的因果涌现。
  −
 
  −
有时,我们也会根据归一化的EI来计算[[因果涌现度量]],即:
  −
 
  −
<math>
  −
ce=Eff(P_M)-Eff(P_m)=1-0.405=0.595
  −
</math>
  −
 
  −
由此可见,由于归一化的EI消除了系统尺寸的影响,因此因果涌现度量更大。我们也可以把因果涌现作为指标,评判马尔科夫链的简化是否最佳。
      
==参考文献==
 
==参考文献==
225

个编辑

导航菜单