更改

跳到导航 跳到搜索
添加208字节 、 2024年5月24日 (星期五)
第13行: 第13行:     
=Do形式及解释=
 
=Do形式及解释=
 +
根据Erik Hoel的首篇[[因果涌现]]论文,有效信息(EI)是定义在一般的有效状态、离散时间上的马尔科夫链上的。定义如下:
 +
 
对于任意的马尔科夫链[math]\chi[/math],它的状态状态空间为[math]\mathcal{S}[/math],转移概率矩阵定义为[math]M[/math],它在t时刻的状态变量为[math]X_t[/math], t+1时刻的状态变量为[math]X_{t+1}[/math],则EI定义为:
 
对于任意的马尔科夫链[math]\chi[/math],它的状态状态空间为[math]\mathcal{S}[/math],转移概率矩阵定义为[math]M[/math],它在t时刻的状态变量为[math]X_t[/math], t+1时刻的状态变量为[math]X_{t+1}[/math],则EI定义为:
   第25行: 第27行:  
</math>
 
</math>
   −
与传统[[信息论 Information theory]]中的[[互信息]]度量不同,有效信息希望刻画出马尔科夫动力学的因果特性,而这一特性与数据度量在输入变量被设定为[[最大熵分布]]后,输入变量与受到影响的输出变量之间的关联程度。这实际上是对输入变量做了一个[[干预]]操作。[[Judea Pearl]]在2000年左右对因果的界定有详细的阐述。他提出了因果的三层阶梯,关联-[[干预]]-[[反事实]]。直接对观测数据估测[[互信息]],便是在度量关联程度;而如果我们能对变量做[[干预]]操作,即设定变量为某个值或服从某个分布,便上升到了干预的层级;反事实则是设想如果某变量不是当前取值,那么其他变量会是什么样。阶梯层级越高,因果性就越强。
+
尽管在EI的这个定义中也包含了[[互信息]]度量,但是与传统[[信息论]]中的[[互信息]]不同,有效信息希望刻画出马尔科夫动力学的因果特性,而这一特性与数据度量在输入变量被设定为[[最大熵分布]]后,输入变量与受到影响的输出变量之间的关联程度。这实际上是对输入变量做了一个[[干预]]操作。[[Judea Pearl]]在2000年左右对因果的界定有详细的阐述。他提出了因果的三层阶梯,关联-[[干预]]-[[反事实]]。直接对观测数据估测[[互信息]],便是在度量关联程度;而如果我们能对变量做[[干预]]操作,即设定变量为某个值或服从某个分布,便上升到了干预的层级;反事实则是设想如果某变量不是当前取值,那么其他变量会是什么样。阶梯层级越高,因果性就越强。
    
Erik Hoel意识到了这一点,在他提出的因果涌现框架中使用了EI作为一个量化指标。其中他强调EI是一种因果度量,量化的是[[因果效应]]的强弱。在一般的因果研究当中,[[do算子]]是在消除指向某个变量所有的因果箭头,可以避免[[混杂因子]]造成的[[虚假关联]]。在EI的计算中,[[do算子]]则是把数据和动力学分开,消除了所有从数据中带来的因果箭头,从而变成对动力学本身性质的度量。而之所以要把输入变量干预为[[最大熵分布]],其实就是要去除数据分布本身带来的影响,对输入变量的分布不引入任何先验假设,平等对待输入变量的每个状态产生的影响。
 
Erik Hoel意识到了这一点,在他提出的因果涌现框架中使用了EI作为一个量化指标。其中他强调EI是一种因果度量,量化的是[[因果效应]]的强弱。在一般的因果研究当中,[[do算子]]是在消除指向某个变量所有的因果箭头,可以避免[[混杂因子]]造成的[[虚假关联]]。在EI的计算中,[[do算子]]则是把数据和动力学分开,消除了所有从数据中带来的因果箭头,从而变成对动力学本身性质的度量。而之所以要把输入变量干预为[[最大熵分布]],其实就是要去除数据分布本身带来的影响,对输入变量的分布不引入任何先验假设,平等对待输入变量的每个状态产生的影响。
332

个编辑

导航菜单