“讨论:NIS+”的版本间的差异
跳到导航
跳到搜索
(→样本重加权) |
|||
第24行: | 第24行: | ||
PLL:已改,师兄看看我理解对不对? | PLL:已改,师兄看看我理解对不对? | ||
+ | |||
+ | YMZ:可以,记得加参考文献。有时间可以继续往下先写着。 |
2024年8月15日 (四) 09:40的版本
NIS+ 数学推导
要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。
PLL:加入:(这样写可不可以?)
式1中,数学形式是一个泛函问题,无法直接进行优化,学者将通过计算变分下界解决泛函问题。同时,在NIS+框架中,学者使用了编码器将p维的输入数据进行粗粒化,得到q维的宏观数据,下面编码器的通用逼近定理将证明编码器的可以近似粗粒化函数。
YMZ:我稍微改了一下,OK了。
编码器的通用逼近定理
这里的引理要和之前格式一样哦。
PLL:师兄,这个引理在附录里面没有命名,要不您在起一个?
YMZ:用这个名字吧,“编码器的信息瓶颈”
机器学习算法
样本重加权
现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。
PLL:已改,师兄看看我理解对不对?
YMZ:可以,记得加参考文献。有时间可以继续往下先写着。