[[Erik Hoel]]进一步将EI应用在一个[[随机过程]]的背景下,输入变量为<math>X_t</math>,输出变量为<math>X_{t+1}</math>,在将<math>X_t</math>[[干预]]为[[最大熵分布]]时,计算二者之间的[[互信息]]。在离散情况下,[[最大熵分布]]即为[[均匀分布]]。因为这里的EI计算只关乎两个时刻,在[[干预]]的情况下更早的历史变量不起作用,所以Hoel假定该过程的动力学就是一个满足[[马尔科夫性]]的[[概率转移矩阵]]。下面给出几个马尔科夫概率转移矩阵的示例。 | [[Erik Hoel]]进一步将EI应用在一个[[随机过程]]的背景下,输入变量为<math>X_t</math>,输出变量为<math>X_{t+1}</math>,在将<math>X_t</math>[[干预]]为[[最大熵分布]]时,计算二者之间的[[互信息]]。在离散情况下,[[最大熵分布]]即为[[均匀分布]]。因为这里的EI计算只关乎两个时刻,在[[干预]]的情况下更早的历史变量不起作用,所以Hoel假定该过程的动力学就是一个满足[[马尔科夫性]]的[[概率转移矩阵]]。下面给出几个马尔科夫概率转移矩阵的示例。 |