打开主菜单
首页
随机
登录
设置
关于集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
免责声明
集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
搜索
更改
←上一编辑
下一编辑→
因果涌现
(查看源代码)
2024年8月22日 (四) 13:28的版本
添加9字节
、
2024年8月22日 (星期四)
→神经信息压缩方法
第280行:
第280行:
<math>
<math>
−
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q}
EI
\left(f_{\
phi_q
}\right) \quad \text{s.t.}\left\|\
phi_q
^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
+
\max _{\phi_q, \hat{f}_q, \phi_q^{\dagger}, q}
\mathcal{J}
\left(f_{\
phi
}\right)
\\
+
\quad \text{s.t.}\left\|\
phi
^{\dagger}(Y(t+1))-X_{t+1}\right\|<\epsilon
</math>
</math>
−
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t
-1
}^t \hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测, [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
+
这里,<math>q </math>为粗粒化后的宏观态维度,<math>\mathrm{\phi}_q </math>为粗粒化策略函数,<math>{\hat{f}}_{\mathrm{\phi}_q} </math>为宏观动力学,[math]Y(t+1)\equiv \phi(X_t)+\int_{t}^
{
t
+1}
\hat{f}_q(\phi(X_{\tau}))d\tau[/math]为t+1时刻宏观态的预测, [math]\phi_q^{\dagger}[/math]为反粗粒化函数,记<math>\hat{X}_{t+1}\left(\hat{X}_{t+1}^1, \hat{X}_{t+1}^2, \ldots, \hat{X}_{t+1}^p\right)\equiv \phi_q^{\dagger}(Y(t+1))</math>为模型的预测输出,即预测的下一时刻的微观态数据,将[math]\hat{X}_{t+1}[/math]与真实的微观态数据[math]X_{t+1}[/math]求差的范数,即得到预测误差。该方法的目标函数是希望保证微观状态预测误差小于阈值[math]\epsilon[/math]的条件下最大化有效信息EI,假如微观预测误差的约束可以避免平凡解的出现。
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
这一优化问题的目标函数为EI,它是函数[math]\phi_q,\hat{f}_q,\phi_q^{\dagger}[/math]的泛函(这里宏观维度[math]q[/math]是超参),因此较难优化,我们需要使用机器学习的方法来尝试解决。
Jake
642
个编辑