更改

跳到导航 跳到搜索
删除8字节 、 2024年5月24日 (星期五)
第15行: 第15行:  
对于任意的马尔科夫链[math]\chi[/math],它的状态状态空间为[math]\mathcal{S}[/math],转移概率矩阵定义为[math]M[/math],它在t时刻的状态变量为[math]X_t[/math], t+1时刻的状态变量为[math]X_{t+1}[/math],则EI定义为:
 
对于任意的马尔科夫链[math]\chi[/math],它的状态状态空间为[math]\mathcal{S}[/math],转移概率矩阵定义为[math]M[/math],它在t时刻的状态变量为[math]X_t[/math], t+1时刻的状态变量为[math]X_{t+1}[/math],则EI定义为:
   −
[math]
+
[math]EI\equiv I(\tilde{X}_{t+1};X_t|do(X_t~U(\mathcal{S})))[/math]
 
  −
EI\equiv I(\tilde{X}_{t+1};X_t|do(X_t~U(\mathcal{S})))
  −
 
  −
[/math]
      
这里,[math]\tilde{X}_{t+1}[/math]代表经过对[math]X_t[/math]实施do干预,成为均匀分布的随机变量以后,经由动力学[math]M[/math]的传导作用而成为新的[math]t+1[/math]时刻的状态变量,且满足:
 
这里,[math]\tilde{X}_{t+1}[/math]代表经过对[math]X_t[/math]实施do干预,成为均匀分布的随机变量以后,经由动力学[math]M[/math]的传导作用而成为新的[math]t+1[/math]时刻的状态变量,且满足:
   −
[math]
+
[math]<nowiki>P(\tilde{X}_{t+1}=j)=\sum_{i\in \mathcal{S}}P(X_{t}=i) M_{ij}=\frac{\sum_{i\in \mathcal{S}}P(X_{t}=i) M_{ij}}{N}.</nowiki>[/math]
 
  −
<nowiki>P(\tilde{X}_{t+1}=j)=\sum_{i\in \mathcal{S}}P(X_{t}=i) M_{ij}=\frac{\sum_{i\in \mathcal{S}}P(X_{t}=i) M_{ij}}{N}.</nowiki>
  −
 
  −
[/math]
      
与传统[[信息论 Information theory]]中的[[互信息]]度量不同,有效信息希望刻画出马尔科夫动力学的因果特性,而这一特性与数据度量在输入变量被设定为[[最大熵分布]]后,输入变量与受到影响的输出变量之间的关联程度。这实际上是对输入变量做了一个[[干预]]操作。[[Judea Pearl]]在2000年左右对因果的界定有详细的阐述。他提出了因果的三层阶梯,关联-[[干预]]-[[反事实]]。直接对观测数据估测[[互信息]],便是在度量关联程度;而如果我们能对变量做[[干预]]操作,即设定变量为某个值或服从某个分布,便上升到了干预的层级;反事实则是设想如果某变量不是当前取值,那么其他变量会是什么样。阶梯层级越高,因果性就越强。
 
与传统[[信息论 Information theory]]中的[[互信息]]度量不同,有效信息希望刻画出马尔科夫动力学的因果特性,而这一特性与数据度量在输入变量被设定为[[最大熵分布]]后,输入变量与受到影响的输出变量之间的关联程度。这实际上是对输入变量做了一个[[干预]]操作。[[Judea Pearl]]在2000年左右对因果的界定有详细的阐述。他提出了因果的三层阶梯,关联-[[干预]]-[[反事实]]。直接对观测数据估测[[互信息]],便是在度量关联程度;而如果我们能对变量做[[干预]]操作,即设定变量为某个值或服从某个分布,便上升到了干预的层级;反事实则是设想如果某变量不是当前取值,那么其他变量会是什么样。阶梯层级越高,因果性就越强。
332

个编辑

导航菜单