更改

跳到导航 跳到搜索
添加110字节 、 2020年8月19日 (三) 11:13
第400行: 第400行:  
If 𝑋,𝑌 are discrete random variables then all the entropy terms are non-negative, so 0≤𝑑(𝑋,𝑌)≤𝐻(𝑋,𝑌) and one can define a normalized distance
 
If 𝑋,𝑌 are discrete random variables then all the entropy terms are non-negative, so 0≤𝑑(𝑋,𝑌)≤𝐻(𝑋,𝑌) and one can define a normalized distance
   −
如果𝑋,𝑌是离散随机变量,那么所有熵项都是非负的,因此0≤𝑑(𝑋,𝑌)≤𝐻(𝑋,𝑌),可以定义一个标准化距离:
+
如果<math>X, Y</math>是离散随机变量,那么所有熵项都是非负的,因此<math>0 \le d(X,Y) \le H(X,Y)</math>,可以定义一个标准化距离:
      第413行: 第413行:  
The metric 𝐷 is a universal metric, in that if any other distance measure places 𝑋 and 𝑌 close-by, then the 𝐷 will also judge them close.
 
The metric 𝐷 is a universal metric, in that if any other distance measure places 𝑋 and 𝑌 close-by, then the 𝐷 will also judge them close.
   −
度量𝐷是一种通用度量,即如果任何其他距离度量将𝑋和𝑌放在附近,则𝐷也将判断它们接近。
+
度量<math>D</math>是一种通用度量,即如果任何其他距离度量将<math>X</math>和<math>Y</math>认为是近的,则<math>D</math>也将判断它们接近。
      第438行: 第438行:  
In a set-theoretic interpretation of information (see the figure for Conditional entropy), this is effectively the Jaccard distance between 𝑋 and 𝑌.
 
In a set-theoretic interpretation of information (see the figure for Conditional entropy), this is effectively the Jaccard distance between 𝑋 and 𝑌.
   −
在信息的集合论解释中(参见条件熵的图),这实际上就是𝑋和𝑌之间的Jaccard距离。
+
在信息的集合论解释中(参见条件熵的图),这实际上就是<math>X</math>和<math>Y</math>之间的'''<font color="#ff8000">杰卡德距离 Jaccard distance</font>'''。
     
463

个编辑

导航菜单