“讨论:NIS+”的版本间的差异
跳到导航
跳到搜索
第20行: | 第20行: | ||
=NIS+ 数学推导= | =NIS+ 数学推导= | ||
+ | |||
+ | 要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。 | ||
==宏观EI的变分下界== | ==宏观EI的变分下界== |
2024年8月13日 (二) 15:39的版本
分布外泛化那个章节记得加文献和引用。
PLL:加了两篇
崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o
YMZ:没事,就直接网页上查标题就行了,就是提醒一下有这个意识就行,不算是问题~
NIS+ 概述
这块OK啦,看看有什么引用可以加的
NIS+ 数学推导
要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。
宏观EI的变分下界
目前引理那部分有两块相同内容,可以把重复的删掉。
新的优化目标那里,有好多行是写数学符号的,可以参照1式的样子,把那些行都写成一个case的形式。
其他没啥问题了,下次看看张老师对这部分是什么意见。
编码器的通用逼近定理
这里的引理要和之前格式一样哦。