更改

添加122字节 、 2020年12月11日 (五) 15:51
无编辑摘要
第1行: 第1行: −
此词条Jie翻译。
+
此词条Jie翻译。由CecileLi初步审校。文中多处公式未正常显示,不清楚是程序错误还是未编辑完成orz······
    
{{Short description|Measure of information in probability and information theory}}
 
{{Short description|Measure of information in probability and information theory}}
第17行: 第17行:  
The joint [[Shannon entropy]] (in [[bit]]s) of two discrete [[random variable|random variables]] <math>X</math> and <math>Y</math> with images <math>\mathcal X</math> and <math>\mathcal Y</math> is defined as<ref name=cover1991>{{cite book |author1=Thomas M. Cover |author2=Joy A. Thomas |title=Elements of Information Theory |publisher=Wiley |location=Hoboken, New Jersey |year= |isbn=0-471-24195-4}}</ref>{{rp|16}}
 
The joint [[Shannon entropy]] (in [[bit]]s) of two discrete [[random variable|random variables]] <math>X</math> and <math>Y</math> with images <math>\mathcal X</math> and <math>\mathcal Y</math> is defined as<ref name=cover1991>{{cite book |author1=Thomas M. Cover |author2=Joy A. Thomas |title=Elements of Information Theory |publisher=Wiley |location=Hoboken, New Jersey |year= |isbn=0-471-24195-4}}</ref>{{rp|16}}
   −
联合熵Shannon entropy </font>'''的定义是:以比特为单位,对于具有<math>\mathcal X</math>和<math>\mathcal Y</math>的两个离散随机变量函数<math>X</math>和<math>Y</math>'''<font color="#ff8000">
+
联合熵Shannon entropy </font>'''的定义是:以比特为单位,对于具有<math>\mathcal X</math>和<math>\mathcal Y</math>的两个离散随机变量函数<math>X</math>和<math>Y</math>'''<font color="#ff8000">  
    
{{Equation box 1
 
{{Equation box 1
526

个编辑