动力学模式分解,属于利用线性变换同时对变量、动力学、观测函数进行降维<ref>B. Brunton, L. Johnson, J. Ojemann and J. N. Kutz, Extracting spatial-temporal coherent patterns in large-scale neural recordings using dynamic mode decomposition arXiv:1409.5496</ref>的方法。这种方法是另一种和因果涌现中粗粒化策略相近,依然基于误差最小化来进行优化的方法。模型约简和动力学模式分解虽然都和模型粗粒化十分接近,但是他们都没有基于有效信息的优化,本质上都是默认了一定会损失信息,而不会增强因果效应。在文献<ref>Liu K, Yuan B, Zhang J. An Exact Theory of Causal Emergence for Linear Stochastic Iteration Systems[J]. arXiv preprint arXiv:2405.09207, 2024.</ref>中,作者们证明了其实有效信息最大化的最优解集包含因果涌最大化的解集,因此如果要优化因果涌现,可以先最小化误差,在最小误差的解集中寻找最佳的粗粒化策略。 | 动力学模式分解,属于利用线性变换同时对变量、动力学、观测函数进行降维<ref>B. Brunton, L. Johnson, J. Ojemann and J. N. Kutz, Extracting spatial-temporal coherent patterns in large-scale neural recordings using dynamic mode decomposition arXiv:1409.5496</ref>的方法。这种方法是另一种和因果涌现中粗粒化策略相近,依然基于误差最小化来进行优化的方法。模型约简和动力学模式分解虽然都和模型粗粒化十分接近,但是他们都没有基于有效信息的优化,本质上都是默认了一定会损失信息,而不会增强因果效应。在文献<ref>Liu K, Yuan B, Zhang J. An Exact Theory of Causal Emergence for Linear Stochastic Iteration Systems[J]. arXiv preprint arXiv:2405.09207, 2024.</ref>中,作者们证明了其实有效信息最大化的最优解集包含因果涌最大化的解集,因此如果要优化因果涌现,可以先最小化误差,在最小误差的解集中寻找最佳的粗粒化策略。 |