更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
信息论
(查看源代码)
2020年11月21日 (六) 23:00的版本
删除3字节
、
2020年11月21日 (六) 23:00
→互信息(转移信息)
第117行:
第117行:
互信息是对称的:
互信息是对称的:
−
: <math>I(X;Y) = I(Y;X) = H(X) + H(Y) - H(X,Y)
.
\,</math>
+
: <math>I(X;Y) = I(Y;X) = H(X) + H(Y) - H(X,Y)\,</math>
互信息可以表示为在给定''Y''值的情况下''X''的后验分布,以及''X''的先验概率分布之间的平均 Kullback-Leibler 散度(信息增益) :
互信息可以表示为在给定''Y''值的情况下''X''的后验分布,以及''X''的先验概率分布之间的平均 Kullback-Leibler 散度(信息增益) :
−
: <math>I(X;Y) = \mathbb E_{p(y)} [D_{\mathrm{KL}}( p(X|Y=y) \| p(X) )]
.
</math>
+
: <math>I(X;Y) = \mathbb E_{p(y)} [D_{\mathrm{KL}}( p(X|Y=y) \| p(X) )]</math>
换句话说,这个指标度量:当我们给出''Y''的值,得出''X''上的概率分布将会平均变化多少。这通常用于计算边缘分布的乘积与实际联合分布的差异:
换句话说,这个指标度量:当我们给出''Y''的值,得出''X''上的概率分布将会平均变化多少。这通常用于计算边缘分布的乘积与实际联合分布的差异:
−
: <math>I(X; Y) = D_{\mathrm{KL}}(p(X,Y) \| p(X)p(Y))
.
</math>
+
: <math>I(X; Y) = D_{\mathrm{KL}}(p(X,Y) \| p(X)p(Y))</math>
互信息与列联表中的似然比检验,多项分布,以及皮尔森卡方检验密切相关: 互信息可以视为评估一对变量之间独立性的统计量,并且具有明确指定的渐近分布。
互信息与列联表中的似然比检验,多项分布,以及皮尔森卡方检验密切相关: 互信息可以视为评估一对变量之间独立性的统计量,并且具有明确指定的渐近分布。
薄荷
7,129
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本