更改

跳到导航 跳到搜索
添加132字节 、 2024年9月4日 (星期三)
第205行: 第205行:     
===因果态的主要性质===
 
===因果态的主要性质===
将所有历史序列的集合记作<math> \overset{\leftarrow}{S}</math>,将<math> \overset{\leftarrow}{S}</math>按照某种函数映射方法划分为若干个互斥且全面的子集,那么每个子集就是一个有效态(effective state),这些有效态的集合记作<math>\mathcal{R} </math>,进一步理解其实有效态就是将<math> \overset{\leftarrow}{S}</math>中的某段序列粗粒化后得到的宏观态。按照不同的划分方法会得到不同类型的<math>\mathcal{R} </math>,它们的集合记作<math>\hat{\mathcal{R}} </math>。按照最优的划分方法得到的有效态就是因果态,这些因果态的集合记作<math>\mathcal{S} </math>,<math>\mathcal{S} </math>是<math>\mathcal{R} </math>的一种特殊形式,它们均属于<math>\hat{\mathcal{R}} </math>。
+
将所有历史序列的集合记作<math> \overset{\leftarrow}{S}</math>,将<math> \overset{\leftarrow}{S}</math>按照某种函数映射方法划分为若干个互斥且全面的子集,那么每个子集就是一个有效态(effective state),这些有效态的集合记作<math>\mathcal{R} </math>,进一步理解其实有效态就是将<math> \overset{\leftarrow}{S}</math>中的某段序列粗粒化后得到的宏观态。按照最优的划分方法得到的有效态就是因果态,这些因果态的集合记作<math>\mathcal{S} </math>,<math>\mathcal{S} </math>是<math>\mathcal{R} </math>的一种特殊形式。
   −
(1)在相同统计复杂度的前提下,因果态集合<math>\mathcal{S} </math>在所有类型有效态集合<math>\hat{\mathcal{R}} </math>中的预测能力最强,用公式表示为<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}]\geq H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>,<math>\stackrel{\rightarrow}{S}^L </math>为<math>L </math>个长度的未来序列集合,<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}] </math>和<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>是<math>\stackrel{\rightarrow}{S}^L </math>的条件熵。
+
(1)在相同统计复杂度的前提下,因果态集合<math>\mathcal{S} </math>在有效态集合<math>\mathcal{R} </math>的所有类型中,它的预测能力最强,用公式表示为<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}]\geq H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>,<math>\stackrel{\rightarrow}{S}^L </math>为<math>L </math>个长度的未来序列集合,<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}] </math>和<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>是<math>\stackrel{\rightarrow}{S}^L </math>的条件熵。
   −
(2)在相同预测能力的前提下,因果态集合<math>\mathcal{S} </math>在所有类型有效态集合<math>\hat{\mathcal{R}} </math>中的统计复杂度最小,用公式表示为<math>C_\mu(\mathcal{R})\geq C_\mu(\mathcal{S}) </math>
+
(2)在相同预测能力的前提下,因果态集合<math>\mathcal{S} </math>在有效态集合<math>\mathcal{R} </math>的所有类型中,它的统计复杂度最小,用公式表示为<math>C_\mu(\hat{\mathcal{R}})\geq C_\mu(\mathcal{S}) </math>,<math>\hat{\mathcal{R} </math>满足<math>H[\stackrel{\rightarrow}{S}^{L}|\hat{\mathcal{R}}]=H[\stackrel{\rightarrow}{S}^{L}|\mathcal{S}] </math>。
   −
上文中已经介绍了柯式复杂度和统计复杂度的基本概念,接下来回顾一下它们之间的关系。如果<math>s^L </math>表示对过程的测量结果的前<math>L </math>个字符串,那么复杂性之间的关系可以近似的表示为:
+
上文中已经介绍了柯式复杂度和统计复杂度的基本概念,如果<math>s^L </math>表示对过程的测量结果的前<math>L </math>个序列,那么它们之间的关系可以近似的表示为:
    
<math>K(s^L )≈C_μ (s^L )+h_μ L </math>
 
<math>K(s^L )≈C_μ (s^L )+h_μ L </math>
   −
如果在已确定描述语言(程序)的情况下,柯式复杂度<math>K(s^L ) </math>可以理解为描述字符串<math>s^L </math>所用的总信息量。
+
如果在已确定描述语言(程序)的情况下,柯式复杂度<math>K(s^L ) </math>可以理解为描述<math>s^L </math>所用的总信息量。
    
<math>h_μ </math>为香农熵率,是信息不确定性程度的归一化指标,信息的不确定性越高,香农熵率越大。<math>h_μ </math>在这里可以理解为误差率, 则<math>h_μ L </math>为允许损失的随机信息量。
 
<math>h_μ </math>为香农熵率,是信息不确定性程度的归一化指标,信息的不确定性越高,香农熵率越大。<math>h_μ </math>在这里可以理解为误差率, 则<math>h_μ L </math>为允许损失的随机信息量。
   −
统计复杂度<math>C_μ (s^L ) </math>可以理解为允许存在误差率<math>h_μ </math>的情况下,描述字符串<math>s^L </math>所用的最少信息量。
+
统计复杂度<math>C_μ (s^L ) </math>可以理解为允许存在误差率<math>h_μ </math>的情况下,描述<math>s^L </math>所用的最少信息量。
   −
那么公式可以解释为:字符串<math>s^L </math>的总信息量≈被归纳的状态信息量+放弃归纳的随机信息量
+
结合本条性质,求<math>C_μ (s^L ) </math>就是求<math>s^L </math>对应的因果态的统计复杂度,也就是说想要计算<math>C_μ (s^L ) </math>需要先找到<math>s^L </math>对应的因果态。
 +
 
 +
那么公式可以解释为:字符串<math>s^L </math>的总信息量≈被归纳的因果态信息量+放弃归纳的随机信息量
    
(3)因果态在所有有效态中具有最小随机性
 
(3)因果态在所有有效态中具有最小随机性
115

个编辑

导航菜单