更改

跳到导航 跳到搜索
无编辑摘要
第11行: 第11行:  
给定一个离散随机变量 <math>X</math>,其取值于集合 <math>\mathcal{X}</math>,且服从 <math>p\colon \mathcal{X}\to[0, 1]</math> 分布,则熵为 <math display="block">\Eta(X) := -\sum_{x \in \mathcal{X}} p(x) \log p(x),</math> 其中 <math>\Sigma</math> 表示变量可能值的总和。<math>\log</math>  的底数(即 对数)的选择因应用不同而不同(通常采用2)。
 
给定一个离散随机变量 <math>X</math>,其取值于集合 <math>\mathcal{X}</math>,且服从 <math>p\colon \mathcal{X}\to[0, 1]</math> 分布,则熵为 <math display="block">\Eta(X) := -\sum_{x \in \mathcal{X}} p(x) \log p(x),</math> 其中 <math>\Sigma</math> 表示变量可能值的总和。<math>\log</math>  的底数(即 对数)的选择因应用不同而不同(通常采用2)。
   −
与熵紧密相关的是'''互信息'''(mutual Information,MI)。对于两个随机变量,互信息度量了两者间相互依赖的程度(成对关系)。具体来说,互信息测量了一个随机变量由于已知另一个随机变量而减少的“信息量”。离散随机变量 X 和 Y 的互信息可以计算为:
+
与熵紧密相关的是'''互信息'''(mutual Information,MI)。对于两个随机变量,互信息度量了两者间相互依赖的程度(成对关系)。具体来说,互信息测量了一个随机变量由于已知另一个随机变量而减少的“信息量”。离散随机变量<math>X</math><math>Y</math>的互信息可以计算为:
    
{{NumBlk|2=<math>
 
{{NumBlk|2=<math>
第80行: 第80行:  
3. <math> \Gamma_{t, t+1}(V) := \max_{j} I(V_{t}; X_{t+1}^j) </math>,这个指标是<math>V_t</math>与<math>X_{t+1}^j</math>之间最大互信息。
 
3. <math> \Gamma_{t, t+1}(V) := \max_{j} I(V_{t}; X_{t+1}^j) </math>,这个指标是<math>V_t</math>与<math>X_{t+1}^j</math>之间最大互信息。
   −
对于上述指标,V是一个预定义的宏观变量。
这些指标的具体用途如下:

+
对于上述指标,<math>V</math>是一个预定义的宏观变量。
这些指标的具体用途如下:

    
1. 当<math> \Psi_{t, t+1}(V) > 0 </math> ,这是Vt因果涌现的充分条件。
 
1. 当<math> \Psi_{t, t+1}(V) > 0 </math> ,这是Vt因果涌现的充分条件。
2,435

个编辑

导航菜单