更改

跳到导航 跳到搜索
添加295字节 、 2021年1月17日 (日) 23:58
无编辑摘要
第1行: 第1行: −
此词条由Jie翻译。由Lincent审校。
+
{{#seo:
 
+
|keywords=熵,信息量,链式法则
 +
|description=一种用于定量描述随机变量<math>Y</math>表示的信息量
 +
}}
 
[[文件:Entropy-mutual-information-relative-entropy-relation-diagram.svg|缩略图|右|该图表示在变量X、Y相关联的各种信息量之间,进行加减关系的维恩图。两个圆所包含的区域是联合熵H(X,Y)。左侧的圆圈(红色和紫色)是单个熵H(X),红色是条件熵H(X ǀ Y)。右侧的圆圈(蓝色和紫色)为H(Y),蓝色为H(Y ǀ X)。中间紫色的是相互信息i(X; Y)。]]
 
[[文件:Entropy-mutual-information-relative-entropy-relation-diagram.svg|缩略图|右|该图表示在变量X、Y相关联的各种信息量之间,进行加减关系的维恩图。两个圆所包含的区域是联合熵H(X,Y)。左侧的圆圈(红色和紫色)是单个熵H(X),红色是条件熵H(X ǀ Y)。右侧的圆圈(蓝色和紫色)为H(Y),蓝色为H(Y ǀ X)。中间紫色的是相互信息i(X; Y)。]]
       
在[[信息论 Information theory]]中,假设随机变量<math>X</math>的值已知,那么'''条件熵 Conditional entropy'''则用于定量描述随机变量<math>Y</math>表示的信息量。此时,信息以'''香农 Shannon''','''<font color="#ff8000">奈特 nat</font>'''或'''<font color="#ff8000">哈特莱 hartley</font>'''来衡量。已知<math>X</math>的条件下<math>Y</math>的熵记为<math>H(X ǀ Y)</math>。
 
在[[信息论 Information theory]]中,假设随机变量<math>X</math>的值已知,那么'''条件熵 Conditional entropy'''则用于定量描述随机变量<math>Y</math>表示的信息量。此时,信息以'''香农 Shannon''','''<font color="#ff8000">奈特 nat</font>'''或'''<font color="#ff8000">哈特莱 hartley</font>'''来衡量。已知<math>X</math>的条件下<math>Y</math>的熵记为<math>H(X ǀ Y)</math>。
        第215行: 第216行:  
== References 参考文献 ==
 
== References 参考文献 ==
 
{{Reflist}}
 
{{Reflist}}
 +
 +
 +
 +
----
 +
本中文词条由[[用户:Jie|Jie]]翻译,[[用户:Lincent|Lincent]]审校,[[用户:薄荷|薄荷]]欢迎在讨论页面留言。
 +
 +
'''本词条内容源自公开资料,遵守 CC3.0协议。'''
 +
    
[[Category:熵和信息]]
 
[[Category:熵和信息]]
 
[[Category:信息理论]]
 
[[Category:信息理论]]
7,129

个编辑

导航菜单