更改

跳到导航 跳到搜索
添加104字节 、 2024年8月2日 (星期五)
无编辑摘要
第23行: 第23行:     
YMZ:应该需要你把公式放在这里简单讲一下。要不你单独拿出来一个小节,叫做“神经网络上的EI计算”。我们会有一个专门的词条讲这个,你在这里就简单介绍一下那个公式,然后交叉引用即可。这个小节可以放在概述和缺陷之间。
 
YMZ:应该需要你把公式放在这里简单讲一下。要不你单独拿出来一个小节,叫做“神经网络上的EI计算”。我们会有一个专门的词条讲这个,你在这里就简单介绍一下那个公式,然后交叉引用即可。这个小节可以放在概述和缺陷之间。
 +
 +
PLL:ok
    
* 当输入数据的维度过大的时候,EI可能会发散。
 
* 当输入数据的维度过大的时候,EI可能会发散。
    
这一点已经包含在你下面说的第二点里了。它其实有一个考虑是去除超参数L的影响。你可以看一下dei和dce的公式。
 
这一点已经包含在你下面说的第二点里了。它其实有一个考虑是去除超参数L的影响。你可以看一下dei和dce的公式。
 +
 +
PLL:这里就是L的影响吧?输入数据的维度是和L相关的,X~[-L,L]
    
=NIS 缺陷=
 
=NIS 缺陷=
第39行: 第43行:     
问题的形式化表达就不写了吧,因为和NIS那个优化框架基本没有区别。目前你写这一部分属于宏观EI变分下界那一小节的。数学推导这里你就直接写变分下界这一节吧。会引用到NIS那里提到的优化框架,你可以看一下别的词条是怎么引用公式的。
 
问题的形式化表达就不写了吧,因为和NIS那个优化框架基本没有区别。目前你写这一部分属于宏观EI变分下界那一小节的。数学推导这里你就直接写变分下界这一节吧。会引用到NIS那里提到的优化框架,你可以看一下别的词条是怎么引用公式的。
 +
 +
PLL:OK
259

个编辑

导航菜单