更改

跳到导航 跳到搜索
删除685字节 、 2024年8月16日 (星期五)
第322行: 第322行:     
===模型约简===
 
===模型约简===
因果涌现的一个重要的指标就是粗粒化策略的制定,而粗粒化策略在控制论中有一个非常接近的操作,就是模型约简,Antoulas就曾经写过相关的综述<ref>Antoulas A C. An overview of approximation methods for large-scale dynamical systems[J]. Annual reviews in Control, 2005, 29(2): 181-190.</ref>。
+
因果涌现的一个重要的指标就是粗粒化策略的制定,而粗粒化策略在控制论中有一个非常接近的操作,就是模型约简,Antoulas就曾经写过相关的综述<ref name=":15">Antoulas A C. An overview of approximation methods for large-scale dynamical systems[J]. Annual reviews in Control, 2005, 29(2): 181-190.</ref>。
   −
模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解的近似方法和基于Krylov的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov。两种方法都是基于粗粒化前后输出函数的误差损失函数,而目标就是寻找能使误差最小的约简参数矩阵<math>W </math>。
+
模型约简,就是要将高维的复杂系统动力学模型进行化简、降维,用低维的动力学来描述动力系统的演化规律,这一过程其实就是因果涌现研究中的粗粒化过程。将对大尺度动力系统的近似方法主要有两大类,即基于奇异值分解<ref name=":15" />的近似方法和基于Krylov<ref name=":15" /><ref>Boley D L. Krylov space methods on state-space control models[J]. Circuits, Systems and Signal Processing, 1994, 13: 733-758.</ref>的近似方法。前者基于奇异值分解,后者基于矩匹配。虽然前者具有许多理想的性质,包括误差界,但它不能应用于高复杂度的系统。另一方面,后者的优势在于它可以迭代实现,因此适用于高复杂度系统。将这两个族的最佳属性相结合的努力导致了第三类近似方法,称为SVD/Krylov。两种方法都是基于粗粒化前后输出函数的误差损失函数,而目标就是寻找能使误差最小的约简参数矩阵<math>W </math>。
   −
所谓的大尺度动力学一般情况下,如果时间是连续的,就可以表示为
+
一般情况下基于模型约简前后输出函数的误差损失函数<math>||\hat{z}-z|| </math>判断粗粒化参数默认了系统约简的过程会损失信息量,因此误差最小化是判断约简方法有效性的唯一方法。但是如果从因果涌现角度考虑,[[有效信息]]会因为降维而增大,这也是因果涌现研究中的粗粒化策略和控制论中的模型约简最大的不同。当动力系统是随机的时候,直接计算损失函数会因为随机性的存在,导致损失函数的稳定性无法保证,因而约简的有效性也会无法准确测量。而本身就是基于随机动力系统的有效信息和因果涌现指标,一定程度上可以增加评判指标的有效性,使对随机动力系统的控制研究更加严谨。
 
  −
<math>\frac{dx}{dt}=f(x,u), z=g(x,u) </math>
  −
 
  −
其中<math>x\in\mathcal{R}^n </math>表示演化的变量,<math>f:\mathcal{R}^n\to\mathcal{R}^n </math> ,<math>u\in\mathcal{R}^m </math>是与<math>x </math>独立,但也会伴随系统演化的其他变量的组合,控制论中通常可以人工调控调系统整演化的方向,如果是随机噪声,就可以直接规定<math>u=\epsilon\sim\mathcal{N}(0,\Sigma) </math>。<math>g:\mathcal{R}^n\to\mathcal{R}^p </math>是演化中的输出值,用来观测系统的演化状况,粗粒化的损失信息就是看变化前后观测值的损失函数。
  −
 
  −
时间离散的情况下,系统就可以表示为
  −
 
  −
<math>x_{t+1}=f(x_t,u_t), z_t=g(x_t,u_t) </math>
  −
 
  −
对大尺度动力学进行约简,需要先对变量进行线性映射<math>y=Wx, W\in\mathcal{R}^{k\times n}, k<n </math>。这样就可以对我们动力系统模型进行简化,得到约简后的系统
  −
 
  −
<math>\frac{dy}{dt}=Wf(Vx,u), \hat{z}=g(Vx,u) </math>
  −
 
  −
  −
 
  −
<math>y_{t+1}=Wf(Vy_t,u_t), \hat{z}_t=g(Vx_t,u_t) </math>
  −
 
  −
其中<math>V\in\mathcal{R}^{n\times k}, WV=I_n </math>,寻找合适的<math>W </math>也是以往研究的关键。基于粗粒化前后输出函数的误差损失函数<math>||\hat{z}-z|| </math>判断粗粒化参数默认了系统约简的过程会损失信息量,因此误差最小化是判断约简方法有效性的唯一方法。但是如果从因果涌现角度考虑,[[有效信息]]会因为降维而增大,这也是因果涌现研究中的粗粒化策略和控制论中的模型约简最大的不同。
      
===动力学模式分解===
 
===动力学模式分解===
动力学模型约减,属于利用线性变换同时对变量、动力学、观测函数进行降维。而除此之外,还有另一种和因果涌现中粗粒化策略相近,但是依然基于误差最小化来进行优化的操作,就是动力学模式分解。对于动力系统,如果时间是连续的,就可以表示为
+
动力学模式分解,属于利用线性变换同时对变量、动力学、观测函数进行降维。而除此之外,还有另一种和因果涌现中粗粒化策略相近,但是依然基于误差最小化来进行优化的操作,就是动力学模式分解。对于动力系统,如果时间是连续的,就可以表示为
    
<math>\frac{dx}{dt}=f(x,u) </math>
 
<math>\frac{dx}{dt}=f(x,u) </math>
225

个编辑

导航菜单