更改

跳到导航 跳到搜索
添加1,165字节 、 2024年7月13日 (星期六)
第5行: 第5行:     
===涌现===
 
===涌现===
涌现一直是复杂系统中的一个重要特性和研究对象,是许多关于复杂性本质以及宏微观组织之间关系讨论的中心概念<ref>Meehl P E, Sellars W. The concept of emergence[J]. Minnesota studies in the philosophy of science, 1956, 1239-252.</ref><ref>Holland J H. Emergence: From chaos to order[M]. OUP Oxford, 2000.</ref>。涌现可以简单理解为整体大于部分之和,即整体上展现出构成它的个体所不具备的新特性<ref>Anderson P W. More is different: broken symmetry and the nature of the hierarchical structure of science[J]. Science, 1972, 177(4047): 393-396.</ref>。尽管在各个领域都被指出存在涌现的现象[4,59],如鸟类的群体行为[60],大脑中的意识形成,以及大语言模型的涌现能力[7],但目前还没有对这一现象的统一理解。以往对涌现有很多定性的研究,如 Bedau et al[10,65]对涌现进行了分类,可以将涌现分为名义涌现[69,70]、弱涌现[10,71]与强涌现[17,72]。名义涌现可以理解为能被宏观层级的模式或过程所拥有,但不能被其微观层级的组件所拥有的属性[69,70]。弱涌现是指宏观层面的属性或过程是通过单个组件之间以复杂的方式相互作用产生的,由于计算不可约性的原理,它们不能轻易地简化为微观层面的属性。对于弱涌现来说,其模式产生的原因可能来自微观和宏观两个层面[17,72]。因此,涌现的因果关系可能与微观因果关系并存。而对于强涌现来说存在很多的争论,它指的是宏观层面的属性,原则上不能简化为微观层面的属性,包括个体之间的相互作用。此外,Jochen Fromm进一步将强涌现解释为[[向下因果]]的因果效应[18]。考虑一个包含三个不同尺度的系统:微观、介观和宏观。向下因果关系是指从宏观层面向介观层面或从介观层面向微观层面的因果力。然而,关于向下因果关系本身的概念存在许多争议[64,68]。
+
涌现一直是复杂系统中的一个重要特性和研究对象,是许多关于复杂性本质以及宏微观组织之间关系讨论的中心概念<ref>Meehl P E, Sellars W. The concept of emergence[J]. Minnesota studies in the philosophy of science, 1956, 1239-252.</ref><ref>Holland J H. Emergence: From chaos to order[M]. OUP Oxford, 2000.</ref>。涌现可以简单理解为整体大于部分之和,即整体上展现出构成它的个体所不具备的新特性<ref>Anderson P W. More is different: broken symmetry and the nature of the hierarchical structure of science[J]. Science, 1972, 177(4047): 393-396.</ref>。尽管在各个领域都被指出存在涌现的现象<ref>Holland, J.H. Emergence: From Chaos to Order; OUP: Oxford, UK, 2000.</ref><ref>Holland, J.H. Hidden Order: How Adaptation Builds Complexity; Addison Wesley Longman Publishing Co., Inc.: Boston, MA, USA, 1996.</ref>,如鸟类的群体行为<ref>Reynolds, C.W. Flocks, herds and schools: A distributed behavioral model. In Proceedings of the 14th Annual Conference on Computer Graphics and Interactive Techniques, Anaheim, CA, USA, 27–31 July 1987; pp. 25–34.</ref>,大脑中的意识形成,以及大语言模型的涌现能力<ref>Wei, J.; Tay, Y.; Bommasani, R.; Raffel, C.; Zoph, B.; Borgeaud, S.; Yogatama, D.; Bosma, M.; Zhou, D.; Metzler, D.; et al. Emergent abilities of large language models. arXiv 2022, arXiv:2206.07682.</ref>,但目前还没有对这一现象的统一理解。以往对涌现有很多定性的研究,如 Bedau et al<ref>Bedau, M.A. Weak emergence. Philos. Perspect. 1997, 11, 375–399. [CrossRef] </ref><ref>Bedau, M. Downward causation and the autonomy of weak emergence. Principia Int. J. Epistemol. 2002, 6, 5–50. </ref>对涌现进行了分类,可以将涌现分为名义涌现<ref>Harré, R. The Philosophies of Science; Oxford University Press: New York, NY, USA , 1985.</ref><ref>Baas, N.A. Emergence, hierarchies, and hyperstructures. In Artificial Life III, SFI Studies in the Science of Complexity, XVII; Routledge: Abingdon, UK, 1994; pp. 515–537.</ref>、弱涌现[10,71]与强涌现[17,72]。名义涌现可以理解为能被宏观层级的模式或过程所拥有,但不能被其微观层级的组件所拥有的属性[69,70]。弱涌现是指宏观层面的属性或过程是通过单个组件之间以复杂的方式相互作用产生的,由于计算不可约性的原理,它们不能轻易地简化为微观层面的属性。对于弱涌现来说,其模式产生的原因可能来自微观和宏观两个层面[17,72]。因此,涌现的因果关系可能与微观因果关系并存。而对于强涌现来说存在很多的争论,它指的是宏观层面的属性,原则上不能简化为微观层面的属性,包括个体之间的相互作用。此外,Jochen Fromm进一步将强涌现解释为[[向下因果]]的因果效应[18]。考虑一个包含三个不同尺度的系统:微观、介观和宏观。向下因果关系是指从宏观层面向介观层面或从介观层面向微观层面的因果力。然而,关于向下因果关系本身的概念存在许多争议[64,68]。
    
===早期相工作===
 
===早期相工作===
第65行: 第65行:  
====基于可逆性的因果涌现理论====
 
====基于可逆性的因果涌现理论====
   −
[[张江]]等人[论文题目:Dynamical Reversibility and A New Theory of Causal Emergence]基于奇异值分解,提出了一套新的因果涌现理论。给定一个系统的马尔科夫转移矩阵<math>P</math>,通过对它进行奇异值分解,得到两个正交且的归一化矩阵<math>U</math>和<math>V</math>,和一个对角阵<math>\Sigma</math>:<math>P= U\Sigma V^T</math>
+
[[张江]]等人<ref name=":2">Zhang J, Tao R, Yuan B. Dynamical Reversibility and A New Theory of Causal Emergence. arXiv preprint arXiv:2402.15054. 2024 Feb 23.</ref>基于奇异值分解,提出了一套新的因果涌现理论。给定一个系统的马尔科夫转移矩阵<math>P</math>,通过对它进行奇异值分解,得到两个正交且的归一化矩阵<math>U</math>和<math>V</math>,和一个对角阵<math>\Sigma</math>:<math>P= U\Sigma V^T</math>
    
我们可以将奇异值的<math>\alpha</math>次方的和定义为马尔科夫动力学的可逆性度量,即:
 
我们可以将奇异值的<math>\alpha</math>次方的和定义为马尔科夫动力学的可逆性度量,即:
第89行: 第89行:     
====其他(Dynamic independence等)====
 
====其他(Dynamic independence等)====
动力学解耦(Dynamic Independence)是一种表征粗粒化宏观变量相对于微观动力学系统的独立性的方法[论文题目:Dynamical independence: discovering emergent macroscopic processes in complex dynamical systems]。其核心思想是,尽管宏观变量由微观变量组成,但在预测宏观变量未来状态时,微观历史并不能提供额外的信息。动力学解耦从信息论角度形式化了这种简约性,并通过转移熵(Transfer Entropy)进行量化。
+
动力学解耦(Dynamic Independence)是一种表征粗粒化宏观变量相对于微观动力学系统的独立性的方法<ref name=":6">Barnett L, Seth AK. Dynamical independence: discovering emergent macroscopic processes in complex dynamical systems. Physical Review E. 2023 Jul;108(1):014304.</ref>。其核心思想是,尽管宏观变量由微观变量组成,但在预测宏观变量未来状态时,微观历史并不能提供额外的信息。动力学解耦从信息论角度形式化了这种简约性,并通过转移熵(Transfer Entropy)进行量化。
    
1. 基本定义
 
1. 基本定义
第163行: 第163行:       −
Kaplanis等人[论文题目:Learning Causally Emergent Representations]基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
+
Kaplanis等人<ref name=":2" />基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
 
[[文件:LCCR.png|居中|500x500像素|替代=NIS模型框架图|学习因果涌现表征的架构|缩略图]]
 
[[文件:LCCR.png|居中|500x500像素|替代=NIS模型框架图|学习因果涌现表征的架构|缩略图]]
   第199行: 第199行:  
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了[[格兰杰因果关系|格兰杰因果]]的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
 
同时NIS方法与前面提到的G-emergence也有相似之处,例如,NIS同样采用了[[格兰杰因果关系|格兰杰因果]]的思想:通过预测下一个时间步的微观状态来优化有效的宏观状态。然而,这两个框架之间有几个明显的区别:a)在G-emergence理论中,宏观状态需要人工选择,然后NIS中是通过自动优化粗粒化策略来得到宏观状态;b)NIS使用神经网络来预测未来状态,而G-emergence使用自回归技术来拟合数据。
   −
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人[论文题目:Finding emergence in data by maximizing effective information]进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。目标函数可以被定义为在给定微观预测足够小的情况下最大化宏观动力学的有效信息:
+
但是该方法存在一些不足,作者将优化过程分为两个阶段,但是没有真正的最大化有效信息。因此,杨等人<ref name=":6" />进一步改进该方法,通过引入反向动力学以及重加权技术借助变分不等式将原始的最大化有效信息转换成最大化其变分下界来直接优化目标函数。目标函数可以被定义为在给定微观预测足够小的情况下最大化宏观动力学的有效信息:
    
<math>\max_{\phi,f_q,\phi^{\dagger}} \mathcal{J}(f_q),</math>
 
<math>\max_{\phi,f_q,\phi^{\dagger}} \mathcal{J}(f_q),</math>
22

个编辑

导航菜单