更改

跳到导航 跳到搜索
添加122字节 、 2024年6月29日 (星期六)
无编辑摘要
第115行: 第115行:  
====其他(Dynamic independence等)====
 
====其他(Dynamic independence等)====
   −
===因果涌现的识别===
+
==因果涌现的识别==
 
前面已经介绍了一些通过因果关系和其他信息理论概念来量化涌现的工作。然而,在实际应用中,往往只能收集到观测数据,无法得到系统的真实动力学。因此,从可观测数据中辨别系统中因果涌现的发生是一个更为重要的问题。此外,在因果涌现的识别问题中往往希望寻找一个最优的宏观尺度,使其有效信息达到最大值,此时的系统具有最大因果力,并且能以最可靠、最有效的方式预测未来的状态。下面介绍两种因果涌现的识别方法,包括基于信息分解和神经信息压缩方法。
 
前面已经介绍了一些通过因果关系和其他信息理论概念来量化涌现的工作。然而,在实际应用中,往往只能收集到观测数据,无法得到系统的真实动力学。因此,从可观测数据中辨别系统中因果涌现的发生是一个更为重要的问题。此外,在因果涌现的识别问题中往往希望寻找一个最优的宏观尺度,使其有效信息达到最大值,此时的系统具有最大因果力,并且能以最可靠、最有效的方式预测未来的状态。下面介绍两种因果涌现的识别方法,包括基于信息分解和神经信息压缩方法。
   −
====信息分解方法====
+
====基于互信息的近似方法====
 +
给定宏观态<math>V</math>以及基于机器学习的方法学习<math>\mathrm{\Psi} </math>
 +
 
 
Rosas虽然给出因果涌现的严格定义,但在<math>\varphi ID </math>中使用的数学公式很复杂,同时计算要求很高,难以将该方法应用于实际系统。因此,Rosas等绕开特有信息和协同信息的计算<ref name=":5" />,提出一个判定因果涌现发生的充分条件,基于互信息提出三个新指标,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>用于识别系统中的因果涌现,三种指标的具体计算公式如下所示:
 
Rosas虽然给出因果涌现的严格定义,但在<math>\varphi ID </math>中使用的数学公式很复杂,同时计算要求很高,难以将该方法应用于实际系统。因此,Rosas等绕开特有信息和协同信息的计算<ref name=":5" />,提出一个判定因果涌现发生的充分条件,基于互信息提出三个新指标,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>用于识别系统中的因果涌现,三种指标的具体计算公式如下所示:
   第136行: 第138行:     
====神经信息压缩方法====
 
====神经信息压缩方法====
 +
NIS以及NIS+
 +
 
近年来,新兴的人工智能技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的神经网络结构和自动微分技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等<ref>Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref>尝试基于神经网络提出了一种基于数据驱动的能够从时间序列数据中识别系统中的因果涌现方法,该方法能自动提取有效的粗粒度策略和宏观动力学,克服了信息分解方法中的种种不足。
 
近年来,新兴的人工智能技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的神经网络结构和自动微分技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等<ref>Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref>尝试基于神经网络提出了一种基于数据驱动的能够从时间序列数据中识别系统中的因果涌现方法,该方法能自动提取有效的粗粒度策略和宏观动力学,克服了信息分解方法中的种种不足。
  
337

个编辑

导航菜单