打开主菜单
首页
随机
登录
设置
关于集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
免责声明
集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
搜索
更改
←上一编辑
下一编辑→
互信息
(查看源代码)
2020年8月19日 (三) 10:00的版本
大小无更改
、
2020年8月19日 (三) 10:00
→条件熵与联合熵的关系 Relation to conditional and joint entropy
第233行:
第233行:
−
注意,在离散情况下,<math>H(X|X) = 0</math>,因此<math>H(X) = \operatorname{I}(X;X)</math>。所以,<math>\operatorname{I}(X; X) \ge \operatorname{I}(X; Y)</math>
,据此我们可以得到一个基本原则,那就是一个变量至少包含与任何其他变量所能提供的关于自身的信息量的这么多信息。
+
注意,在离散情况下,<math>H(X|X) = 0</math>,因此<math>H(X) = \operatorname{I}(X;X)</math>。所以,<math>\operatorname{I}(X; X) \ge \operatorname{I}(X; Y)</math>
,据此我们可以得到一个基本结论,那就是一个变量至少包含与任何其他变量所能提供的关于自身的信息量的这么多信息。
=== 与相对熵的关系 Relation to Kullback–Leibler divergence ===
=== 与相对熵的关系 Relation to Kullback–Leibler divergence ===
Yillia Jing
463
个编辑