更改

删除2,886字节 、 2020年8月9日 (日) 16:20
第170行: 第170行:       −
[[文件:MI pic4.png|居中|缩略图|MI_pic4]]
+
[[文件:MI pic4.png|居中|缩略图]]
      第177行: 第177行:  
where <math>\Eta(X)</math> and <math>\Eta(Y)</math> are the marginal entropies, <math>\Eta(X|Y)</math> and <math>\Eta(Y|X)</math> are the conditional entropies, and <math>\Eta(X,Y)</math> is the joint entropy of <math>X</math> and <math>Y</math>.
 
where <math>\Eta(X)</math> and <math>\Eta(Y)</math> are the marginal entropies, <math>\Eta(X|Y)</math> and <math>\Eta(Y|X)</math> are the conditional entropies, and <math>\Eta(X,Y)</math> is the joint entropy of <math>X</math> and <math>Y</math>.
   −
其中 math  Eta (x) / math  Eta (y) / math 是边际熵,math  Eta (x | y) / math  Eta (y | x) / math  Eta (y | x) / math 是条件熵,math Eta (x,y) / math 是数学 x / math 和数学 y / math 的联合熵。
+
其中H(X)和H(Y)是边际熵,H(X | Y)和H(Y | X)是条件熵,H(X,Y)是<math>X</math>和<math>Y</math>的联合熵。
      第187行: 第187行:  
Notice the analogy to the union, difference, and intersection of two sets: in this respect, all the formulas given above are apparent from the Venn diagram reported at the beginning of the article.
 
Notice the analogy to the union, difference, and intersection of two sets: in this respect, all the formulas given above are apparent from the Venn diagram reported at the beginning of the article.
   −
注意对两个集合的并、差和交集的类比: 在这方面,上面给出的所有公式在文章开头报告的维恩图中都是显而易见的。
+
注意两个集合的并集、差集和交集的类比:在这方面,上面给出的所有公式都可以从文章开头的维恩图中看出。
 
        第197行: 第196行:  
In terms of a communication channel in which the output <math>Y</math> is a noisy version of the input <math>X</math>, these relations are summarised in the figure:
 
In terms of a communication channel in which the output <math>Y</math> is a noisy version of the input <math>X</math>, these relations are summarised in the figure:
   −
在通信通道中,输出数学 y / math 是输入数学 x / math 的噪声版本,这些关系如图所示:
+
就输出<math>Y</math>是输入<math>X</math>的噪声版本的通信信道而言,这些关系如图中总结所示:
 
  −
 
  −
 
        −
[[File:Figchannel2017ab.svg|thumb| The relationships between information theoretic quantities]]
     −
The relationships between information theoretic quantities
  −
  −
信息理论量之间的关系
      +
[[File:Figchannel2017ab.svg|thumb| The relationships between information theoretic quantities 信息论量之间的关系]]
      第217行: 第210行:  
Because <math>\operatorname{I}(X;Y)</math> is non-negative, consequently, <math>\Eta(X) \ge \Eta(X|Y)</math>. Here we give the detailed deduction of <math>\operatorname{I}(X;Y)=\Eta(Y)-\Eta(Y|X)</math> for the case of jointly discrete random variables:
 
Because <math>\operatorname{I}(X;Y)</math> is non-negative, consequently, <math>\Eta(X) \ge \Eta(X|Y)</math>. Here we give the detailed deduction of <math>\operatorname{I}(X;Y)=\Eta(Y)-\Eta(Y|X)</math> for the case of jointly discrete random variables:
   −
因为 math  operatorname { i }(x; y) / math 是非负的,所以 math  Eta (x) ge  Eta (x | y) / math。本文给出了联合离散随机变量的 math  operatorname { i }(x; y) Eta (y)- Eta (y | x) / math 的详细推导:
+
因为I(X;Y)是非负的,因此H(X)>=H(X|Y)。这里我们给出了联合离散随机变量情形下结论I(X;Y)=H(Y)-H(Y | X)的详细推导过程:
 
  −
 
  −
 
  −
 
  −
 
  −
:<math>
  −
 
  −
<math>
  −
 
  −
数学
  −
 
  −
\begin{align}
  −
 
  −
\begin{align}
  −
 
  −
Begin { align }
  −
 
  −
\operatorname{I}(X;Y) & {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log \frac{p_{(X,Y)}(x,y)}{p_X(x)p_Y(y)}\\
  −
 
  −
\operatorname{I}(X;Y) & {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log \frac{p_{(X,Y)}(x,y)}{p_X(x)p_Y(y)}\\
  −
 
  −
运算符名称{ i }(x; y) & { sum { in mathcal { x,y } p {(x,y)}(x,y) log frac { p (x,y)}(x,y)}{ p x (x) p (x) y (y)}
  −
 
  −
& {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log \frac{p_{(X,Y)}(x,y)}{p_X(x)} - \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log p_Y(y)  \\
  −
 
  −
& {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log \frac{p_{(X,Y)}(x,y)}{p_X(x)} - \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log p_Y(y)  \\
  −
 
  −
(x,y){ x,y)}(x,y) log frac { p (x,y)}(x,y)}{ x (x)}-sum { x (x)}-{{ y }{ mathcal {(x,y)}(x,y)}(y) log py (y)}
  −
 
  −
 
  −
 
  −
 
  −
 
  −
& {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_X(x)p_{Y|X=x}(y) \log p_{Y|X=x}(y) - \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log p_Y(y) \\
  −
 
  −
& {} = \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_X(x)p_{Y|X=x}(y) \log p_{Y|X=x}(y) - \sum_{x \in \mathcal{X},y \in \mathcal{Y}} p_{(X,Y)}(x,y) \log p_Y(y) \\
  −
 
  −
数学 x,y 中数学 y 中数学 x (x) p { y | x }(y) log p { y | x }(y)-数学 x 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中数学 y 中的数学 y
  −
 
  −
& {} = \sum_{x \in \mathcal{X}} p_X(x) \left(\sum_{y \in \mathcal{Y}} p_{Y|X=x}(y) \log p_{Y|X=x}(y)\right) - \sum_{y \in \mathcal{Y}} \left(\sum_x p_{(X,Y)}(x,y)\right) \log p_Y(y) \\
  −
 
  −
& {} = \sum_{x \in \mathcal{X}} p_X(x) \left(\sum_{y \in \mathcal{Y}} p_{Y|X=x}(y) \log p_{Y|X=x}(y)\right) - \sum_{y \in \mathcal{Y}} \left(\sum_x p_{(X,Y)}(x,y)\right) \log p_Y(y) \\
  −
 
  −
数学 x (x)左(和 y) n 数学 y | x }(y) log p { y | x }(y)右)-数学 y 左(和 x (x,y)右) log p  y (y)
  −
 
  −
& {} = -\sum_{x \in \mathcal{X}} p(x) \Eta(Y|X=x) - \sum_{y \in \mathcal{Y}} p_Y(y) \log p_Y(y) \\
  −
 
  −
& {} = -\sum_{x \in \mathcal{X}} p(x) \Eta(Y|X=x) - \sum_{y \in \mathcal{Y}} p_Y(y) \log p_Y(y) \\
  −
 
  −
数学中的和(x) p (x) Eta (y | x)-和(y) y (y) log py (y)
  −
 
  −
& {} = -\Eta(Y|X) + \Eta(Y)  \\
  −
 
  −
& {} = -\Eta(Y|X) + \Eta(Y)  \\
  −
 
  −
{}- Eta (y | x) + Eta (y)
  −
 
  −
& {} = \Eta(Y) - \Eta(Y|X).  \\
  −
 
  −
& {} = \Eta(Y) - \Eta(Y|X).  \\
  −
 
  −
埃塔(y)-埃塔(y | x)。\\
  −
 
  −
\end{align}
  −
 
  −
\end{align}
     −
End { align }
     −
</math>
+
[[文件:MI pic5.png|居中|缩略图]]
   −
</math>
     −
数学
      
The proofs of the other identities above are similar. The proof of the general case (not just discrete) is similar, with integrals replacing sums.
 
The proofs of the other identities above are similar. The proof of the general case (not just discrete) is similar, with integrals replacing sums.
第297行: 第221行:  
The proofs of the other identities above are similar. The proof of the general case (not just discrete) is similar, with integrals replacing sums.
 
The proofs of the other identities above are similar. The proof of the general case (not just discrete) is similar, with integrals replacing sums.
   −
上述其他恒等式的证明是相似的。一般情况(不仅仅是离散情况)的证明是类似的,用积分代替和。
+
同理,上述其他恒等式的证明方法都是是相似的。一般情况(不仅仅是离散情况)的证明是类似的,用积分代替求。
      第307行: 第231行:  
Intuitively, if entropy <math>\Eta(Y)</math> is regarded as a measure of uncertainty about a random variable, then <math>\Eta(Y|X)</math> is a measure of what <math>X</math> does not say about <math>Y</math>. This is "the amount of uncertainty remaining about <math>Y</math> after <math>X</math> is known", and thus the right side of the second of these equalities can be read as "the amount of uncertainty in <math>Y</math>, minus the amount of uncertainty in <math>Y</math> which remains after <math>X</math> is known", which is equivalent to "the amount of uncertainty in <math>Y</math> which is removed by knowing <math>X</math>". This corroborates the intuitive meaning of mutual information as the amount of information (that is, reduction in uncertainty) that knowing either variable provides about the other.
 
Intuitively, if entropy <math>\Eta(Y)</math> is regarded as a measure of uncertainty about a random variable, then <math>\Eta(Y|X)</math> is a measure of what <math>X</math> does not say about <math>Y</math>. This is "the amount of uncertainty remaining about <math>Y</math> after <math>X</math> is known", and thus the right side of the second of these equalities can be read as "the amount of uncertainty in <math>Y</math>, minus the amount of uncertainty in <math>Y</math> which remains after <math>X</math> is known", which is equivalent to "the amount of uncertainty in <math>Y</math> which is removed by knowing <math>X</math>". This corroborates the intuitive meaning of mutual information as the amount of information (that is, reduction in uncertainty) that knowing either variable provides about the other.
   −
直观地说,如果熵的数学 Eta (y) / 数学被看作是对一个随机变量的不确定性的度量,那么 math (y | x) / math 是对数学 x / math 没有对数学 y / math 进行说明的度量。这是“数学 x / 数学已知后数学 y / 数学剩余的不确定性量” ,因此,第二个等式的右边可以被解读为“数学 y / 数学中的不确定性量,减去数学 y / 数学中的不确定性量,在数学 x / 数学已知后仍然存在的不确定性量” ,这相当于“数学 y / 数学中的不确定性量,通过知道数学 x / 数学而去除”。这证实了互信息的直观含义,即知道任何一个变量提供的关于另一个变量的信息量(即不确定性的减少)。
+
直观地说,如果熵H (Y)被看作是对一个随机变量的不确定性的度量,那么<math>H(Y|X)</math>是对 <math>X</math>没有对<math>Y</math>进行说明的度量。这是“<math>X</math>已知后<math>Y</math>剩余的不确定性量” ,因此,第二个等式的右边可以被解读为“数学 y / 数学中的不确定性量,减去数学 y / 数学中的不确定性量,在数学 x / 数学已知后仍然存在的不确定性量” ,这相当于“数学 y / 数学中的不确定性量,通过知道数学 x / 数学而去除”。这证实了互信息的直观含义,即知道任何一个变量提供的关于另一个变量的信息量(即不确定性的减少)。
     
463

个编辑