更改

跳到导航 跳到搜索
删除1字节 、 2024年9月9日 (星期一)
第212行: 第212行:  
在第一阶段,NIS使用似然最大化和随机梯度下降技术来获得有效的 <math>q</math> 粗粒化策略和宏观状态动力学的有效预测器。目标函数由微观状态预测的概率定义。
 
在第一阶段,NIS使用似然最大化和随机梯度下降技术来获得有效的 <math>q</math> 粗粒化策略和宏观状态动力学的有效预测器。目标函数由微观状态预测的概率定义。
   −
前馈神经网络可以理解为一种用高斯或拉普拉斯分布建模条件概率<ref>Kingma, D.P.; Welling, M. Auto-encoding variational bayes. arXiv 2013, arXiv:1312.6114.</ref>的机器。因此,整个 NIS 框架可以理解为一个对条件概率<math>P(\hat{\mathbf{x}}_{t+dt} | \mathbf{x}_t)</math> 建模的模型,神经网络的输出 <math>\hat{\mathbf{x}}_{t+1}</math> 为此分布的平均值。此外,目标函数方程 14 只是给定分布形式下观测数据的对数似然或交叉熵。
+
前馈神经网络可以理解为一种用高斯或拉普拉斯分布建模条件概率<ref>Kingma, D.P.; Welling, M. Auto-encoding variational bayes. arXiv 2013, arXiv:1312.6114.</ref>的机器。因此,整个 NIS 框架可以理解为一个对条件概率<math>P(\hat{\mathbf{x}}_{t+1} | \mathbf{x}_t)</math> 建模的模型,神经网络的输出 <math>\hat{\mathbf{x}}_{t+1}</math> 为此分布的平均值。此外,目标函数方程 14 只是给定分布形式下观测数据的对数似然或交叉熵。
    
{{NumBlk|:|<blockquote><math>\mathcal{L} = \sum_t \ln P(\hat{\mathbf{x}}_{t+1} = \mathbf{x}_{t+1} | \mathbf{x}_t)</math></blockquote>|{{EquationRef|13}}}}
 
{{NumBlk|:|<blockquote><math>\mathcal{L} = \sum_t \ln P(\hat{\mathbf{x}}_{t+1} = \mathbf{x}_{t+1} | \mathbf{x}_t)</math></blockquote>|{{EquationRef|13}}}}
727

个编辑

导航菜单