更改

跳到导航 跳到搜索
删除513字节 、 2021年10月27日 (三) 21:09
无编辑摘要
第1行: 第1行: −
此词条Jie翻译,由Flipped完成审校.
+
{{#seo:
 +
|keywords=概率论,信息论,期望值
 +
|description=当给定第三个变量的情况下两个随机变量间互信息的期望值
 +
}}
   −
[[文件:VennInfo3Var.svg|缩略图|右|以上是三个变量<math>x</math>, <math>y</math>, 和 <math>z</math>信息理论测度的维恩图,分别由左下,右下和上部的圆圈表示。条件互信息<math>I(x;z|y)</math>, <math>I(y;z|x)</math> 和 <math>I(x;y|z)</math>分别由黄色,青色和品红色(''' <font color="#32cd32"> 注意:该图颜色标注错误,需要修改</font> ''')区域表示。|241x241像素]]
+
[[文件:VennInfo3Var.svg.png|缩略图|右|以上是三个变量<math>x</math>, <math>y</math>, 和 <math>z</math>信息理论测度的维恩图,分别由左下,右下和上部的圆圈表示。条件互信息<math>I(x;z|y)</math>, <math>I(y;z|x)</math> 和 <math>I(x;y|z)</math>分别由黄色,青色和品红色区域表示。]]
   −
 
+
在概率论中,特别是[[信息论]]中,'''条件互信息 Conditional mutual information '''<ref name="Wyner1978">{{cite journal|last=Wyner|first=A. D. |title=A definition of conditional mutual information for arbitrary ensembles|url=|journal=Information and Control|year=1978|volume=38|issue=1|pages=51–59|doi=10.1016/s0019-9958(78)90026-8|doi-access=free}}</ref><ref name="Dobrushin1959">{{cite journal|last=Dobrushin|first=R. L. |title=General formulation of Shannon's main theorem in information theory|journal=Uspekhi Mat. Nauk|year=1959|volume=14|pages=3–104}}</ref>的基本形式表示为当给定第三个变量的情况下两个随机变量间互信息的期望值。
在'''概率论 Probability theory'''中,特别是''' 信息论 Information theory'''中,''' 条件互信息 Conditional mutual information '''<ref name="Wyner1978">{{cite journal|last=Wyner|first=A. D. |title=A definition of conditional mutual information for arbitrary ensembles|url=|journal=Information and Control|year=1978|volume=38|issue=1|pages=51–59|doi=10.1016/s0019-9958(78)90026-8|doi-access=free}}</ref><ref name="Dobrushin1959">{{cite journal|last=Dobrushin|first=R. L. |title=General formulation of Shannon's main theorem in information theory|journal=Uspekhi Mat. Nauk|year=1959|volume=14|pages=3–104}}</ref>的基本形式表示为当给定第三个变量的情况下两个随机变量间互信息的期望值。
         
==定义==
 
==定义==
 +
对于具有'''支持集 Probability theory''' <math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>的随机变量<math>X</math>, <math>Y</math>和 <math>Z</math>,我们将条件互信息定义为:
   −
 
+
:<math>
对于具有''' 支持集 Probability theory''' <math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>的随机变量<math>X</math>, <math>Y</math>和 <math>Z</math>,我们将条件互信息定义为:
  −
 
  −
 
  −
{{Equation box 1
  −
|indent =
  −
|title=
  −
|equation =
  −
<math>
   
I(X;Y|Z) = \int_\mathcal{Z} D_{\mathrm{KL}}( P_{(X,Y)|Z} \| P_{X|Z} \otimes P_{Y|Z} ) dP_{Z}
 
I(X;Y|Z) = \int_\mathcal{Z} D_{\mathrm{KL}}( P_{(X,Y)|Z} \| P_{X|Z} \otimes P_{Y|Z} ) dP_{Z}
 
</math>
 
</math>
|cellpadding= 2
  −
|border
  −
|border colour = #0073CF
  −
|background colour=#F5FFFA}}
  −
  −
  −
         
这可以用期望运算符来表示:
 
这可以用期望运算符来表示:
    +
:<math>I(X;Y|Z) = \mathbb{E}_Z [D_{\mathrm{KL}}( P_{(X,Y)|Z} \| P_{X|Z} \otimes P_{Y|Z} )]</math>.
   −
<math>I(X;Y|Z) = \mathbb{E}_Z [D_{\mathrm{KL}}( P_{(X,Y)|Z} \| P_{X|Z} \otimes P_{Y|Z} )]</math>.
     −
 
+
因此,相较于互信息的定义,<math>I(X;Y|Z)</math>可以表达为期望的[[Kullback–Leibler散度]](相对于<math>Z</math>),即从条件联合分布<math>P_{(X,Y)|Z}</math>到条件边际<math>P_{X|Z}</math> 和 <math>P_{Y|Z}</math>的乘积。
 
  −
 
  −
 
  −
因此,相较于互信息的定义,<math>I(X;Y|Z)</math>可以表达为期望的''' KL散度  Kullback–Leibler divergence '''(相对于<math>Z</math>),即从条件联合分布<math>P_{(X,Y)|Z}</math>到条件边际<math>P_{X|Z}</math> 和 <math>P_{Y|Z}</math>的乘积。
         
==关于离散分布的概率质量函数==
 
==关于离散分布的概率质量函数==
  −
   
对于具有支持集<math>X</math>, <math>Y</math>, 和 <math>Z</math>的离散随机变量<math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>,条件互信息<math>I(X;Y|Z)</math>如下:
 
对于具有支持集<math>X</math>, <math>Y</math>, 和 <math>Z</math>的离散随机变量<math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>,条件互信息<math>I(X;Y|Z)</math>如下:
      
:<math>
 
:<math>
第53行: 第34行:        +
其中边缘概率质量函数,联合概率质量函数,和(或)条件[[概率质量函数]]可以由<math>p</math>加上适当的下标表示。这可以简化为:
   −
 
+
:<math>
 
  −
其中边缘概率质量函数,联合概率质量函数,和(或)条件'''概率质量函数 Probability mass function '''可以由<math>p</math>加上适当的下标表示。这可以简化为:
  −
 
  −
 
  −
{{Equation box 1
  −
|indent =
  −
|title=
  −
|equation =
  −
<math>
   
I(X;Y|Z) = \sum_{z\in \mathcal{Z}} \sum_{y\in \mathcal{Y}} \sum_{x\in \mathcal{X}} p_{X,Y,Z}(x,y,z) \log \frac{p_Z(z)p_{X,Y,Z}(x,y,z)}{p_{X,Z}(x,z)p_{Y,Z}(y,z)}.
 
I(X;Y|Z) = \sum_{z\in \mathcal{Z}} \sum_{y\in \mathcal{Y}} \sum_{x\in \mathcal{X}} p_{X,Y,Z}(x,y,z) \log \frac{p_Z(z)p_{X,Y,Z}(x,y,z)}{p_{X,Z}(x,z)p_{Y,Z}(y,z)}.
 
</math>
 
</math>
|cellpadding= 6
  −
|border
  −
|border colour = #0073CF
  −
|background colour=#F5FFFA}}
        第76行: 第45行:     
对于具有支持集<math>X</math>, <math>Y</math>, 和 <math>Z</math>的(绝对)连续随机变量<math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>,条件互信息<math>I(X;Y|Z)</math>如下:
 
对于具有支持集<math>X</math>, <math>Y</math>, 和 <math>Z</math>的(绝对)连续随机变量<math>\mathcal{X}</math>, <math>\mathcal{Y}</math> 和 <math>\mathcal{Z}</math>,条件互信息<math>I(X;Y|Z)</math>如下:
      
:<math>
 
:<math>
第84行: 第52行:        +
其中边缘概率密度函数,联合概率密度函数,和(或)条件[[概率密度函数 ]]可以由p加上适当的下标表示。这可以简化为
   −
  −
  −
其中边缘概率密度函数,联合概率密度函数,和(或)条件'''概率密度函数 Probability density function '''可以由p加上适当的下标表示。这可以简化为
  −
  −
  −
{{Equation box 1
  −
|indent =
  −
|title=
  −
|equation =
   
<math>
 
<math>
 
I(X;Y|Z) = \int_{\mathcal{Z}} \int_{\mathcal{Y}} \int_{\mathcal{X}} \log \left(\frac{p_Z(z)p_{X,Y,Z}(x,y,z)}{p_{X,Z}(x,z)p_{Y,Z}(y,z)}\right) p_{X,Y,Z}(x,y,z) dx dy dz.
 
I(X;Y|Z) = \int_{\mathcal{Z}} \int_{\mathcal{Y}} \int_{\mathcal{X}} \log \left(\frac{p_Z(z)p_{X,Y,Z}(x,y,z)}{p_{X,Z}(x,z)p_{Y,Z}(y,z)}\right) p_{X,Y,Z}(x,y,z) dx dy dz.
 
</math>
 
</math>
|cellpadding= 6
  −
|border
  −
|border colour = #0073CF
  −
|background colour=#F5FFFA}}
  −
     −
==Some identities 部分特性==
      +
==部分特性==
    
同时我们也可以将联合和条件熵写为<ref>{{cite book |last1=Cover |first1=Thomas |author-link1=Thomas M. Cover |last2=Thomas |first2=Joy A. |title=Elements of Information Theory |edition=2nd |location=New York |publisher=[[Wiley-Interscience]] |date=2006 |isbn=0-471-24195-4}}</ref>:
 
同时我们也可以将联合和条件熵写为<ref>{{cite book |last1=Cover |first1=Thomas |author-link1=Thomas M. Cover |last2=Thomas |first2=Joy A. |title=Elements of Information Theory |edition=2nd |location=New York |publisher=[[Wiley-Interscience]] |date=2006 |isbn=0-471-24195-4}}</ref>:
第111行: 第66行:  
:<math>I(X;Y|Z) = H(X,Z) + H(Y,Z) - H(X,Y,Z) - H(Z)
 
:<math>I(X;Y|Z) = H(X,Z) + H(Y,Z) - H(X,Y,Z) - H(Z)
 
                 = H(X|Z) - H(X|Y,Z) = H(X|Z)+H(Y|Z)-H(X,Y|Z).</math>
 
                 = H(X|Z) - H(X|Y,Z) = H(X|Z)+H(Y|Z)-H(X,Y|Z).</math>
  −
  −
         
这么表达以显示其与互信息的关系
 
这么表达以显示其与互信息的关系
      
:<math>I(X;Y|Z) = I(X;Y,Z) - I(X;Z)</math>
 
:<math>I(X;Y|Z) = I(X;Y,Z) - I(X;Z)</math>
  −
  −
         
通常情况下,表达式被重新整理为“互信息的链式法则”
 
通常情况下,表达式被重新整理为“互信息的链式法则”
      
:<math>I(X;Y,Z) = I(X;Z) + I(X;Y|Z)</math>
 
:<math>I(X;Y,Z) = I(X;Z) + I(X;Y|Z)</math>
  −
  −
         
上述式子的另一种等价形式是<ref>[https://math.stackexchange.com/q/1863993 Decomposition on Math.StackExchange]</ref>:
 
上述式子的另一种等价形式是<ref>[https://math.stackexchange.com/q/1863993 Decomposition on Math.StackExchange]</ref>:
      
:<math>I(X;Y|Z) = H(Z|X) + H(X) + H(Z|Y) + H(Y) - H(Z|X,Y) - H(X,Y) - H(Z)
 
:<math>I(X;Y|Z) = H(Z|X) + H(X) + H(Z|Y) + H(Y) - H(Z|X,Y) - H(X,Y) - H(Z)
 
                 = I(X;Y) + H(Z|X) + H(Z|Y) - H(Z|X,Y) - H(Z)</math>
 
                 = I(X;Y) + H(Z|X) + H(Z|Y) - H(Z|X,Y) - H(Z)</math>
  −
  −
  −
         
类似互信息一样,条件互信息可以表示为KL散度:
 
类似互信息一样,条件互信息可以表示为KL散度:
      
:<math> I(X;Y|Z) = D_{\mathrm{KL}}[ p(X,Y,Z) \| p(X|Z)p(Y|Z)p(Z) ]. </math>
 
:<math> I(X;Y|Z) = D_{\mathrm{KL}}[ p(X,Y,Z) \| p(X|Z)p(Y|Z)p(Z) ]. </math>
  −
  −
         
或作为更简单的KL散度的期望值:
 
或作为更简单的KL散度的期望值:
      
:<math> I(X;Y|Z) = \sum_{z \in \mathcal{Z}} p( Z=z ) D_{\mathrm{KL}}[ p(X,Y|z) \| p(X|z)p(Y|z) ]</math>,
 
:<math> I(X;Y|Z) = \sum_{z \in \mathcal{Z}} p( Z=z ) D_{\mathrm{KL}}[ p(X,Y|z) \| p(X|z)p(Y|z) ]</math>,
第161行: 第95行:       −
==More general definition 其他通用定义==
+
==其他通用定义==
 
      
条件互信息的其他通用定义(适用于具有连续或其他任意分布的随机变量)将取决于''' 正则条件概率 Regular conditional probability '''的概念。(参阅<ref>[http://planetmath.org/encyclopedia/ConditionalProbabilityMeasure.html Regular Conditional Probability] on [http://planetmath.org/ PlanetMath]</ref><ref>D. Leao, Jr. et al. ''Regular conditional probability, disintegration of probability and Radon spaces.'' Proyecciones. Vol. 23, No. 1, pp. 15–29, May 2004, Universidad Católica del Norte, Antofagasta, Chile [http://www.scielo.cl/pdf/proy/v23n1/art02.pdf PDF]</ref>))
 
条件互信息的其他通用定义(适用于具有连续或其他任意分布的随机变量)将取决于''' 正则条件概率 Regular conditional probability '''的概念。(参阅<ref>[http://planetmath.org/encyclopedia/ConditionalProbabilityMeasure.html Regular Conditional Probability] on [http://planetmath.org/ PlanetMath]</ref><ref>D. Leao, Jr. et al. ''Regular conditional probability, disintegration of probability and Radon spaces.'' Proyecciones. Vol. 23, No. 1, pp. 15–29, May 2004, Universidad Católica del Norte, Antofagasta, Chile [http://www.scielo.cl/pdf/proy/v23n1/art02.pdf PDF]</ref>))
  −
        第172行: 第103行:       −
 
+
考虑到在每个随机变量状态空间中的'''波莱尔测度 Borel measure'''(关于开放集生成的σ代数),是由<math>\mathcal F</math>中每个波莱尔集分配到的的原像<math>\mathfrak P</math>测度来确定的。这被称为''' 前推测度  Pushforward measure ''' <math>X _* \mathfrak P = \mathfrak P\big(X^{-1}(\cdot)\big).</math>。随机变量的支撑集定义为该测度的拓扑支撑集,即<math>\mathrm{supp}\,X = \mathrm{supp}\,X _* \mathfrak P.</math>。
 
  −
考虑到在每个随机变量状态空间中的''' 波莱尔测度 Borel measure'''(关于开放集生成的σ代数),是由<math>\mathcal F</math>中每个波莱尔集分配到的的原像<math>\mathfrak P</math>测度来确定的。这被称为''' 前推测度  Pushforward measure ''' <math>X _* \mathfrak P = \mathfrak P\big(X^{-1}(\cdot)\big).</math>。随机变量的支撑集定义为该测度的拓扑支撑集,即<math>\mathrm{supp}\,X = \mathrm{supp}\,X _* \mathfrak P.</math>。
  −
 
  −
 
        第186行: 第113行:  
         {\mathfrak P(\{X \in U\})}
 
         {\mathfrak P(\{X \in U\})}
 
   \qquad \textrm{and} \qquad \mathfrak P(M|X) = \int_M d\mathfrak P\big(\omega|X=X(\omega)\big),</math>
 
   \qquad \textrm{and} \qquad \mathfrak P(M|X) = \int_M d\mathfrak P\big(\omega|X=X(\omega)\big),</math>
  −
  −
         
在<math>x</math>的开放邻域<math>U</math>处取极限,因为相对于'''集包含 Set inclusion''',它们可以任意变小。
 
在<math>x</math>的开放邻域<math>U</math>处取极限,因为相对于'''集包含 Set inclusion''',它们可以任意变小。
  −
        第208行: 第130行:       −
 
+
其中被积函数是'''拉东-尼科迪姆导数 Radon–Nikodym derivative'''的对数,涉及我们刚刚定义的一些条件概率测度。
 
  −
 
  −
其中被积函数是''' 拉东-尼科迪姆导数 Radon–Nikodym derivative'''的对数,涉及我们刚刚定义的一些条件概率测度。
         
==注释符号==
 
==注释符号==
  −
   
在诸如<math>I(A;B|C)</math>的表达式中,<math>A</math> <math>B</math> 和 <math>C</math>不限于表示单个随机变量,它们同时可以表示在同一概率空间上定义的任意随机变量集合的联合分布。类似概率论中的表达方式,我们可以使用逗号来表示这种联合分布,例如<math>I(A_0,A_1;B_1,B_2,B_3|C_0,C_1)</math>。因此,使用分号(或有时用冒号或楔形<math>\wedge</math>)来分隔互信息符号的主要参数。(在联合熵的符号中,不需要作这样的区分,因为任意数量随机变量的''' 联合熵 Joint entropy'''与它们联合分布的熵相同。)
 
在诸如<math>I(A;B|C)</math>的表达式中,<math>A</math> <math>B</math> 和 <math>C</math>不限于表示单个随机变量,它们同时可以表示在同一概率空间上定义的任意随机变量集合的联合分布。类似概率论中的表达方式,我们可以使用逗号来表示这种联合分布,例如<math>I(A_0,A_1;B_1,B_2,B_3|C_0,C_1)</math>。因此,使用分号(或有时用冒号或楔形<math>\wedge</math>)来分隔互信息符号的主要参数。(在联合熵的符号中,不需要作这样的区分,因为任意数量随机变量的''' 联合熵 Joint entropy'''与它们联合分布的熵相同。)
   第222行: 第139行:  
==属性==
 
==属性==
 
===非负性===
 
===非负性===
  −
   
对于离散,联合分布的随机变量X,Y和Z,如下不等式永远成立:
 
对于离散,联合分布的随机变量X,Y和Z,如下不等式永远成立:
      
:<math>I(X;Y|Z) \ge 0</math>,
 
:<math>I(X;Y|Z) \ge 0</math>,
第231行: 第145行:     
该结果已被用作证明信息理论中其他不等式的基础,尤其是香农不等式。对于某些正则条件下的连续随机变量,条件互信息也是非负的<ref>{{cite book |last1=Polyanskiy |first1=Yury |last2=Wu |first2=Yihong |title=Lecture notes on information theory |date=2017 |page=30 |url=http://people.lids.mit.edu/yp/homepage/data/itlectures_v5.pdf}}</ref>。
 
该结果已被用作证明信息理论中其他不等式的基础,尤其是香农不等式。对于某些正则条件下的连续随机变量,条件互信息也是非负的<ref>{{cite book |last1=Polyanskiy |first1=Yury |last2=Wu |first2=Yihong |title=Lecture notes on information theory |date=2017 |page=30 |url=http://people.lids.mit.edu/yp/homepage/data/itlectures_v5.pdf}}</ref>。
  −
         
===交互信息===
 
===交互信息===
      
考虑到第三个随机变量条件可能会增加或减少''' 互信息''':例如其差值<math>I(X;Y) - I(X;Y|Z)</math>,称为''' 交互信息 Interaction information '''(注意区分互信息Mutual information),可以为正,负或零。即使随机变量是成对独立的也是如此。比如以下情况下:
 
考虑到第三个随机变量条件可能会增加或减少''' 互信息''':例如其差值<math>I(X;Y) - I(X;Y|Z)</math>,称为''' 交互信息 Interaction information '''(注意区分互信息Mutual information),可以为正,负或零。即使随机变量是成对独立的也是如此。比如以下情况下:
      −
<math display="block">X \sim \mathrm{Bernoulli}(0.5), Z \sim \mathrm{Bernoulli}(0.5), \quad Y=\left\{\begin{array}{ll} X & \text{if }Z=0\\ 1-X & \text{if }Z=1 \end{array}\right.</math>
+
:<math display="block">X \sim \mathrm{Bernoulli}(0.5), Z \sim \mathrm{Bernoulli}(0.5), \quad Y=\left\{\begin{array}{ll} X & \text{if }Z=0\\ 1-X & \text{if }Z=1 \end{array}\right.</math>
      −
<math>X</math>, <math>Y</math> 和 <math>Z</math>是成对独立的,特别是<math>I(X;Y)=0</math>,不过这里<math>I(X;Y|Z)=1.</math>。
+
:<math>X</math>, <math>Y</math> 和 <math>Z</math>是成对独立的,特别是<math>I(X;Y)=0</math>,不过这里<math>I(X;Y|Z)=1.</math>。
      第251行: 第162行:       −
==Multivariate mutual information 多元互信息==
+
==多元互信息==
{{main|Multivariate mutual information}}
  −
 
  −
 
   
结合信息图中的集合或度量理论,可以用条件互信息来归纳定义多元互信息。其定义表达式如下:
 
结合信息图中的集合或度量理论,可以用条件互信息来归纳定义多元互信息。其定义表达式如下:
      
:<math>I(X_1;\ldots;X_{n+1}) = I(X_1;\ldots;X_n) - I(X_1;\ldots;X_n|X_{n+1}),</math>
 
:<math>I(X_1;\ldots;X_{n+1}) = I(X_1;\ldots;X_n) - I(X_1;\ldots;X_n|X_{n+1}),</math>
       +
其中
   −
其中
+
:<math>I(X_1;\ldots;X_n|X_{n+1}) = \mathbb{E}_{X_{n+1}} [D_{\mathrm{KL}}( P_{(X_1,\ldots,X_n)|X_{n+1}} \| P_{X_1|X_{n+1}} \otimes\cdots\otimes P_{X_n|X_{n+1}} )].</math>
      −
:<math>I(X_1;\ldots;X_n|X_{n+1}) = \mathbb{E}_{X_{n+1}} [D_{\mathrm{KL}}( P_{(X_1,\ldots,X_n)|X_{n+1}} \| P_{X_1|X_{n+1}} \otimes\cdots\otimes P_{X_n|X_{n+1}} )].</math>
+
该定义与交互信息的定义相同,只是在随机数为奇数的情况下符号发生了变化。一个复杂的问题是,该多元互信息(以及交互信息)可以是正,负或零,这使得其数量难以直观地解释。实际上,对于n个随机变量,存在2n-1个自由度。那么如何在信息理论上将它们关联,并对应于这些变量的每个非空子集,就是解决问题的关键。特别是这些自由度受到信息论中各种香农和非香农不等式的制约。
       +
==参考文献==
 +
<references />
       +
----
 +
本中文词条由Jie翻译,Flipped审校,[[用户:薄荷|薄荷]]编辑,如有问题,欢迎在讨论页面留言。
   −
该定义与交互信息的定义相同,只是在随机数为奇数的情况下符号发生了变化。一个复杂的问题是,该多元互信息(以及交互信息)可以是正,负或零,这使得其数量难以直观地解释。实际上,对于n个随机变量,存在2n-1个自由度。那么如何在信息理论上将它们关联,并对应于这些变量的每个非空子集,就是解决问题的关键。特别是这些自由度受到信息论中各种香农和非香农不等式的制约。
        −
==References 参考文献==
+
'''本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。'''
<references />
     −
[[Category:Information theory]]
+
[[Category:信息论]]
[[Category:Entropy and information]]
+
[[Category:熵和信息]]
7,129

个编辑

导航菜单