更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
互信息
(查看源代码)
2020年8月19日 (三) 10:00的版本
大小无更改
、
2020年8月19日 (三) 10:00
→条件熵与联合熵的关系 Relation to conditional and joint entropy
第233行:
第233行:
−
注意,在离散情况下,<math>H(X|X) = 0</math>,因此<math>H(X) = \operatorname{I}(X;X)</math>。所以,<math>\operatorname{I}(X; X) \ge \operatorname{I}(X; Y)</math>
,据此我们可以得到一个基本原则,那就是一个变量至少包含与任何其他变量所能提供的关于自身的信息量的这么多信息。
+
注意,在离散情况下,<math>H(X|X) = 0</math>,因此<math>H(X) = \operatorname{I}(X;X)</math>。所以,<math>\operatorname{I}(X; X) \ge \operatorname{I}(X; Y)</math>
,据此我们可以得到一个基本结论,那就是一个变量至少包含与任何其他变量所能提供的关于自身的信息量的这么多信息。
=== 与相对熵的关系 Relation to Kullback–Leibler divergence ===
=== 与相对熵的关系 Relation to Kullback–Leibler divergence ===
Yillia Jing
463
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本