第3行: |
第3行: |
| | | |
| =历史= | | =历史= |
| + | |
| + | ==因果涌现的识别== |
| + | 尽管已经存在许多跨时间和空间尺度的[[因果涌现]]的具体例子,我们仍然需要一种仅从数据中识别因果涌现的方法。解决这一问题的困难主要在于,需要一种方法来系统地、自动地搜索所有可能的粗粒化策略(函数、映射),从而显示因果涌现。但搜索空间是微观和宏观之间所有可能的映射函数,体量非常巨大。为了解决这个问题,Klein 等人重点研究了具有网络结构的复杂系统,将粗粒化问题转化为节点聚类,即找到一种方法将节点分组,使得簇级别的连接比原始网络具有更大的[[有效信息]]。虽然该方法假设底层节点动态是扩散(随机游走)的,它还是被广泛应用于各个领域。同时,现实世界中的的复杂系统具有更丰富的节点动态。对于一般的动态系统,即使给定节点分组,粗粒化策略仍然需要考虑如何将簇中所有节点的微观状态映射到簇的宏观状态,也需要在巨大的粗粒化策略函数空间上进行繁琐的搜索。 |
| + | |
| + | 当我们考虑所有可能的映射时,另一个难点是如何避免使用琐碎的粗粒化策略。一种简单的方法是将所有微观状态的值映射到与宏观状态相同的值。这样,系统的宏观动力学就只是一个相同的映射,它将具有较大的有效信息 (EI) 度量。但这种方法不能称为因果涌现,因为所有信息都被粗粒化方法本身抹去了。因此,我们必须找到一种方法来排除这种琐碎的策略。 |
| + | |
| + | 另一种从数据中识别因果涌现的方法是部分信息分解方法。虽然基于信息分解的方法可以避免对粗粒化策略的讨论,但是如果我们想获得精确的结果,也需要在系统状态空间的子集上进行长时间的搜索。此外,已发表的数值近似方法只能提供充分条件。同时,该方法不能给出具有现实意义的、明确的粗粒化策略和相应的宏观动力学。上述两种方法的另一个共同缺点是需要一个明确的宏观和微观动力学的马尔可夫转移矩阵才可以从数据中估计转移概率。因此,上述方法对罕见事件概率的预测将产生几乎无法避免的、较大的偏差,尤其对于连续数据。 |
| + | |
| + | 近年来,基于神经网络的机器学习方法取得了进展,并催生了许多跨学科应用[18–21]。借助此方法,以数据驱动的方式自主发现复杂系统的因果关系甚至动态成为可能。机器学习和神经网络还可以帮助我们找到更好的粗粒化策略。如果将粗粒化映射视为从微观状态到宏观状态的函数,那么显然可以用参数化的神经网络来近似这个函数。这些技术也能帮助我们从数据中发现宏观层面的因果关系。 |
| | | |
| ==标准化流技术== | | ==标准化流技术== |
第12行: |
第21行: |
| 需要说明的是,因为分布间是可以相互变换的,因此对基础分布没有特定的限制,不失一般性的,可以使用标准分布(单高斯)分布作为基础分布。另外,在本文中,我们回避使用先验分布(prior distribution)来称呼这个基础分布,是因为这里的变量<math>\mathbf{z}</math>和其他场合下的隐变量不同,在标准化流模型中,一旦<math>\mathbf{x}</math>确定了,<math>\mathbf{z}</math>也随之确定下来,不存在随机性,也没有后验概率这一说法,所以不能称其为隐变量。 | | 需要说明的是,因为分布间是可以相互变换的,因此对基础分布没有特定的限制,不失一般性的,可以使用标准分布(单高斯)分布作为基础分布。另外,在本文中,我们回避使用先验分布(prior distribution)来称呼这个基础分布,是因为这里的变量<math>\mathbf{z}</math>和其他场合下的隐变量不同,在标准化流模型中,一旦<math>\mathbf{x}</math>确定了,<math>\mathbf{z}</math>也随之确定下来,不存在随机性,也没有后验概率这一说法,所以不能称其为隐变量。 |
| | | |
− | 标准化流模型和NIS在某些方面具有相似性。它们都致力于使用可逆神经网络(INN)将复杂的微观状态<math>s</math>映射到更简单的宏观状态<math>S</math>,即粗粒化过程。在这种粗粒化之后,二者都试图最大化由此产生的有效信息量<math>L(s,S)</math>,从而提取出系统中重要的宏观动态特征。这种方法可以帮助理解复杂系统中的涌现现象和因果关系,在数据建模和分析中有较大应用潜力。
| + | 王磊、尤亦庄等由标准化流技术提出了神经重整化群技术,引入了神经重整化群,作为设计相互作用场论通用全息映射的通用方法。给定一个场论作用,训练一个基于流的分层深度生成神经网络,从不相干的体场波动中再现边界场集合。这样,神经网络就能开发出最优的重整化群变换。标准化流模型和NIS在某些方面具有相似性。它们都致力于使用可逆神经网络(INN)将复杂的微观状态<math>s</math>映射到更简单的宏观状态<math>S</math>,即粗粒化过程。在这种粗粒化之后,二者都试图最大化由此产生的有效信息量<math>L(s,S)</math>,从而提取出系统中重要的宏观动态特征。这种方法可以帮助理解复杂系统中的涌现现象和因果关系,在数据建模和分析中有较大应用潜力。 |
| | | |
| ==数学框架:最大化EI== | | ==数学框架:最大化EI== |
第48行: |
第57行: |
| 该定义符合近似因果模型的抽象。 | | 该定义符合近似因果模型的抽象。 |
| | | |
− | ==神经网络框架== | + | ==神经网络框架 == |
− | 作为神经网络框架,NIS本质上是一个隐空间动力学学习框架。其分为编码器、动力学学习器与解码器,可以由微观状态的时间序列输入、经训练后输出如下四个部分: | + | [[文件:NIS Graph 1.png|居中|600px|'''图1.''' 神经信息压缩器的工作流程和框架。]]作为神经网络框架,NIS本质上是一个隐空间动力学学习框架。其分为编码器、动力学学习器与解码器,可以由微观状态的时间序列输入、经训练后输出如下四个部分: |
| | | |
| *尺度M下的粗粒化策略(由可逆神经网络INN表示); | | *尺度M下的粗粒化策略(由可逆神经网络INN表示); |
第319行: |
第328行: |
| =参考文献= | | =参考文献= |
| | | |
− | <references />此词条由因果涌现第五季读书会词条梳理志愿者LJR.json编撰,未经专家审核,带来阅读不便,请见谅。 | + | <references /> |
| + | |
| + | =编者推荐= |
| + | 下面是一些链接能够帮助读者更好的了解NIS的相关信息: |
| + | |
| + | ===因果涌现读书会=== |
| + | |
| + | |
| + | *[https://pattern.swarma.org/study_group_issue/373 因郭涌现读书会第二季] |
| + | |
| + | |
| + | ===文章推荐=== |
| + | *Zhang, J.; Liu, K. [https://www.mdpi.com/1099-4300/25/1/26 Neural Information Squeezer for Causal Emergence]. ''Entropy'' 2023, ''25'', 26. |
| + | |
| + | ===路径推荐=== |
| + | *张江老师根据因果涌现读书会第一季梳理的关于因果涌现的学习路径:https://pattern.swarma.org/article/153 |
| + | *张江老师根据因果涌现前五季读书会整理的因果涌现入门路径:https://pattern.swarma.org/article/296 |
| + | |
| + | 此词条由因果涌现第五季读书会词条梳理志愿者LJR.json编撰,未经专家审核,带来阅读不便,请见谅。 |