更改

添加9字节 、 2024年8月22日 (星期四)
第280行: 第280行:     
<math>
 
<math>
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q} EI\left(f_{\phi_q}\right) \quad \text{s.t.}\left\|\phi_q^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
+
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q} \mathcal{J}\left(f_{\phi}\right)\\
 +
\quad \text{s.t.}\left\|\phi^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
 
</math>
 
</math>
      −
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t-1}^t \hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测,  [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
+
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t}^{t+1} \hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测,  [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
    
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
 
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
642

个编辑