第7行: |
第7行: |
| | | |
| ==定义 == | | ==定义 == |
− | 联合熵Shannon entropy </font>'''的定义是:以比特为单位,对于具有<math>\mathcal X</math>和<math>\mathcal Y</math>的两个离散随机变量函数<math>X</math>和<math>Y</math>'''有<ref name=cover1991>{{cite book |author1=Thomas M. Cover |author2=Joy A. Thomas |title=Elements of Information Theory |publisher=Wiley |location=Hoboken, New Jersey |year= |isbn=0-471-24195-4}}</ref> | + | '''联合熵Shannon entropy '''的定义是:以比特为单位,对于具有<math>\mathcal X</math>和<math>\mathcal Y</math>的两个离散随机变量函数<math>X</math>和<math>Y</math>'''有<ref name=cover1991>{{cite book |author1=Thomas M. Cover |author2=Joy A. Thomas |title=Elements of Information Theory |publisher=Wiley |location=Hoboken, New Jersey |year= |isbn=0-471-24195-4}}</ref> |
| | | |
| {{Equation box 1 | | {{Equation box 1 |
第64行: |
第64行: |
| == 与其他熵测度的关系 == | | == 与其他熵测度的关系 == |
| | | |
− | 联合熵被用于定义'''<font color="#ff8000"> 条件熵Conditional entropy </font>''': | + | 联合熵被用于定义'''条件熵''': |
− | | |
| | | |
| :<math>H(X|Y) = H(X,Y) - H(Y)\,</math>, | | :<math>H(X|Y) = H(X,Y) - H(Y)\,</math>, |
第71行: |
第70行: |
| and <math display="block">H(X_1,\dots,X_n) = \sum_{k=1}^n H(X_k|X_{k-1},\dots, X_1)</math> | | and <math display="block">H(X_1,\dots,X_n) = \sum_{k=1}^n H(X_k|X_{k-1},\dots, X_1)</math> |
| | | |
− | 它也被用于定义'''<font color="#ff8000"> 交互信息Mutual information</font>''': | + | 它也被用于定义'''交互信息''': |
| | | |
| :<math>\operatorname{I}(X;Y) = H(X) + H(Y) - H(X,Y)\,</math> | | :<math>\operatorname{I}(X;Y) = H(X) + H(Y) - H(X,Y)\,</math> |
第77行: |
第76行: |
| In [[quantum information theory]], the joint entropy is generalized into the [[joint quantum entropy]]. | | In [[quantum information theory]], the joint entropy is generalized into the [[joint quantum entropy]]. |
| | | |
− | 在'''<font color="#ff8000"> 量子信息论Quantum information theory</font>'''中,使用的是广义化的联合熵,即'''<font color="#ff8000"> 联合量子熵Joint quantum entropy</font>'''。 | + | 在'''量子信息论'''中,使用的是广义化的联合熵,即'''联合量子熵'''。 |
| | | |
| | | |
第88行: |
第87行: |
| ===定义 === | | ===定义 === |
| | | |
− | 上文中的定义是针对离散随机变量的,而其实对于连续随机变量,联合熵同样成立。离散联合熵的连续形式称为联合微分(或连续)熵。令<math>X</math>和<math>Y</math>分别为具有'''<font color="#ff8000"> 联合概率密度函数Joint probability density function</font>''' <math>f(x,y)</math>的连续随机变量,那么微分联合熵<math>h(X,Y)</math>定义为: | + | 上文中的定义是针对离散随机变量的,而其实对于连续随机变量,联合熵同样成立。离散联合熵的连续形式称为联合微分(或连续)熵。令<math>X</math>和<math>Y</math>分别为具有'''联合概率密度函数''' <math>f(x,y)</math>的连续随机变量,那么微分联合熵<math>h(X,Y)</math>定义为: |
| | | |
| {{Equation box 1 | | {{Equation box 1 |
第130行: |
第129行: |
| :<math>\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)</math> | | :<math>\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)</math> |
| | | |
− | ==参考文献 == | + | |
| + | |
| + | ==参考文献== |
| {{Reflist}} | | {{Reflist}} |
| | | |
− | [[Category:Entropy and information]]
| |
| | | |
− | [[de:Bedingte Entropie#Blockentropie]] | + | ==编者推荐== |
| + | [[File:熵和信息.jpg|400px|thumb|]] |
| + | ===集智课程=== |
| + | ====[https://campus.swarma.org/course/308 信息熵和编码]==== |
| + | 本课程对常见的编码方法进行了解析,对编码的特点与性质,以及编码的相关证明方法进行了说明。 |
| + | ====[https://campus.swarma.org/course/3155 ]==== |
| + | 在本课程中,程帆老师讲解了熵的简史及定义,介绍了相对熵,相关熵,条件熵以及链式法则 |
| + | |
| + | ---- |
| + | 本条目由[[用户:Jie|Jie]]翻译,[[用户:CecileLi|CecileLi]]审校,[[用户:不是海绵宝宝|不是海绵宝宝]]编辑,如有问题,欢迎在讨论页面进行讨论。 |
| + | |
| + | '''本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。''' |
| + | |
| + | [[Category:熵和信息]] |