第205行: |
第205行: |
| | | |
| ===因果态的主要性质=== | | ===因果态的主要性质=== |
− | 将所有历史序列的集合记作<math> \overset{\leftarrow}{S}</math>,将<math> \overset{\leftarrow}{S}</math>按照某种函数映射方法划分为若干个互斥且全面的子集,那么每个子集就是一个有效态(effective state),这些有效态的集合记作<math>\mathcal{R} </math>,进一步理解其实有效态就是将<math> \overset{\leftarrow}{S}</math>中的某段序列粗粒化后得到的宏观态。按照不同的划分方法会得到不同类型的<math>\mathcal{R} </math>,它们的集合记作<math>\hat{\mathcal{R}} </math>。按照最优的划分方法得到的有效态就是因果态,这些因果态的集合记作<math>\mathcal{S} </math>,<math>\mathcal{S} </math>是<math>\mathcal{R} </math>的一种特殊形式,它们均属于<math>\hat{\mathcal{R}} </math>。 | + | 将所有历史序列的集合记作<math> \overset{\leftarrow}{S}</math>,将<math> \overset{\leftarrow}{S}</math>按照某种函数映射方法划分为若干个互斥且全面的子集,那么每个子集就是一个有效态(effective state),这些有效态的集合记作<math>\mathcal{R} </math>,进一步理解其实有效态就是将<math> \overset{\leftarrow}{S}</math>中的某段序列粗粒化后得到的宏观态。按照最优的划分方法得到的有效态就是因果态,这些因果态的集合记作<math>\mathcal{S} </math>,<math>\mathcal{S} </math>是<math>\mathcal{R} </math>的一种特殊形式。 |
| | | |
− | (1)在相同统计复杂度的前提下,因果态集合<math>\mathcal{S} </math>在所有类型有效态集合<math>\hat{\mathcal{R}} </math>中的预测能力最强,用公式表示为<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}]\geq H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>,<math>\stackrel{\rightarrow}{S}^L </math>为<math>L </math>个长度的未来序列集合,<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}] </math>和<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>是<math>\stackrel{\rightarrow}{S}^L </math>的条件熵。 | + | (1)在相同统计复杂度的前提下,因果态集合<math>\mathcal{S} </math>在有效态集合<math>\mathcal{R} </math>的所有类型中,它的预测能力最强,用公式表示为<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}]\geq H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>,<math>\stackrel{\rightarrow}{S}^L </math>为<math>L </math>个长度的未来序列集合,<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{R}] </math>和<math>H[\stackrel{\rightarrow}{S}^L|\mathcal{S}] </math>是<math>\stackrel{\rightarrow}{S}^L </math>的条件熵。 |
| | | |
− | (2)在相同预测能力的前提下,因果态集合<math>\mathcal{S} </math>在所有类型有效态集合<math>\hat{\mathcal{R}} </math>中的统计复杂度最小,用公式表示为<math>C_\mu(\mathcal{R})\geq C_\mu(\mathcal{S}) </math> | + | (2)在相同预测能力的前提下,因果态集合<math>\mathcal{S} </math>在有效态集合<math>\mathcal{R} </math>的所有类型中,它的统计复杂度最小,用公式表示为<math>C_\mu(\hat{\mathcal{R}})\geq C_\mu(\mathcal{S}) </math>,<math>\hat{\mathcal{R} </math>满足<math>H[\stackrel{\rightarrow}{S}^{L}|\hat{\mathcal{R}}]=H[\stackrel{\rightarrow}{S}^{L}|\mathcal{S}] </math>。 |
| | | |
− | 上文中已经介绍了柯式复杂度和统计复杂度的基本概念,接下来回顾一下它们之间的关系。如果<math>s^L </math>表示对过程的测量结果的前<math>L </math>个字符串,那么复杂性之间的关系可以近似的表示为:
| + | 上文中已经介绍了柯式复杂度和统计复杂度的基本概念,如果<math>s^L </math>表示对过程的测量结果的前<math>L </math>个序列,那么它们之间的关系可以近似的表示为: |
| | | |
| <math>K(s^L )≈C_μ (s^L )+h_μ L </math> | | <math>K(s^L )≈C_μ (s^L )+h_μ L </math> |
| | | |
− | 如果在已确定描述语言(程序)的情况下,柯式复杂度<math>K(s^L ) </math>可以理解为描述字符串<math>s^L </math>所用的总信息量。 | + | 如果在已确定描述语言(程序)的情况下,柯式复杂度<math>K(s^L ) </math>可以理解为描述<math>s^L </math>所用的总信息量。 |
| | | |
| <math>h_μ </math>为香农熵率,是信息不确定性程度的归一化指标,信息的不确定性越高,香农熵率越大。<math>h_μ </math>在这里可以理解为误差率, 则<math>h_μ L </math>为允许损失的随机信息量。 | | <math>h_μ </math>为香农熵率,是信息不确定性程度的归一化指标,信息的不确定性越高,香农熵率越大。<math>h_μ </math>在这里可以理解为误差率, 则<math>h_μ L </math>为允许损失的随机信息量。 |
| | | |
− | 统计复杂度<math>C_μ (s^L ) </math>可以理解为允许存在误差率<math>h_μ </math>的情况下,描述字符串<math>s^L </math>所用的最少信息量。 | + | 统计复杂度<math>C_μ (s^L ) </math>可以理解为允许存在误差率<math>h_μ </math>的情况下,描述<math>s^L </math>所用的最少信息量。 |
| | | |
− | 那么公式可以解释为:字符串<math>s^L </math>的总信息量≈被归纳的状态信息量+放弃归纳的随机信息量 | + | 结合本条性质,求<math>C_μ (s^L ) </math>就是求<math>s^L </math>对应的因果态的统计复杂度,也就是说想要计算<math>C_μ (s^L ) </math>需要先找到<math>s^L </math>对应的因果态。 |
| + | |
| + | 那么公式可以解释为:字符串<math>s^L </math>的总信息量≈被归纳的因果态信息量+放弃归纳的随机信息量 |
| | | |
| (3)因果态在所有有效态中具有最小随机性 | | (3)因果态在所有有效态中具有最小随机性 |