更改

跳到导航 跳到搜索
添加141字节 、 2024年6月30日 (星期日)
第140行: 第140行:     
====基于互信息的近似方法====
 
====基于互信息的近似方法====
由于基于互信息的近似方法需要依赖宏观态<math>V</math>的选择,因此,作者给出了两种方法,一种是给定一个宏观态<math>V</math>计算,另一种是基于机器学习的方法学习观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>
+
由于基于互信息的近似方法需要依赖宏观态<math>V</math>的选择,因此,作者给出了两种方法,一种是给定一个宏观态<math>V</math>计算,另一种是基于机器学习的方法学习观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>。下面我们分别介绍这两种方法:
    
Rosas虽然给出因果涌现的严格定义,但在<math>\varphi ID </math>中使用的数学公式很复杂,同时计算要求很高,难以将该方法应用于实际系统。因此,Rosas等绕开特有信息和协同信息的计算<ref name=":5" />,提出一个判定因果涌现发生的充分条件,基于互信息提出三个新指标,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>用于识别系统中的因果涌现,三种指标的具体计算公式如下所示:
 
Rosas虽然给出因果涌现的严格定义,但在<math>\varphi ID </math>中使用的数学公式很复杂,同时计算要求很高,难以将该方法应用于实际系统。因此,Rosas等绕开特有信息和协同信息的计算<ref name=":5" />,提出一个判定因果涌现发生的充分条件,基于互信息提出三个新指标,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>用于识别系统中的因果涌现,三种指标的具体计算公式如下所示:
第157行: 第157行:     
该方法避开讨论粗粒化策略。但是也存在很多缺点:1)该方法提出的三个指标 ,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>只是基于互信息计算没有考虑因果,同时该方法得到的仅仅是发生因果涌现的充分条件;2)该方法无法得到显式的宏观动力学以及粗粒化策略,然而这两项对于下游的任务往往十分重要;3)当系统具有大量冗余信息或具有许多变量时,该方法的计算复杂度仍然很高。因此,该方法不是一种最优的方法,基于数据驱动的神经信息压缩方法应运而生。
 
该方法避开讨论粗粒化策略。但是也存在很多缺点:1)该方法提出的三个指标 ,<math>\mathrm{\Psi} </math> ,<math>\mathrm{\Delta} </math> 和<math>\mathrm{\Gamma} </math>只是基于互信息计算没有考虑因果,同时该方法得到的仅仅是发生因果涌现的充分条件;2)该方法无法得到显式的宏观动力学以及粗粒化策略,然而这两项对于下游的任务往往十分重要;3)当系统具有大量冗余信息或具有许多变量时,该方法的计算复杂度仍然很高。因此,该方法不是一种最优的方法,基于数据驱动的神经信息压缩方法应运而生。
 +
 +
 +
基于机器学习的方法学习观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:
    
====神经信息压缩方法====
 
====神经信息压缩方法====
1,255

个编辑

导航菜单