更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
因果涌现
(查看源代码)
2024年8月22日 (四) 13:28的版本
添加9字节
、
2024年8月22日 (星期四)
→神经信息压缩方法
第280行:
第280行:
<math>
<math>
−
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q}
EI
\left(f_{\
phi_q
}\right) \quad \text{s.t.}\left\|\
phi_q
^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
+
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q}
\mathcal{J}
\left(f_{\
phi
}\right)
\\
+
\quad \text{s.t.}\left\|\
phi
^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
</math>
</math>
−
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t
-1
}^t \hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测, [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
+
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t}^
{
t
+1}
\hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测, [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
Jake
642
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本