“讨论:NIS+”的版本间的差异
跳到导航
跳到搜索
第34行: | 第34行: | ||
这里的引理要和之前格式一样哦。 | 这里的引理要和之前格式一样哦。 | ||
+ | |||
+ | =机器学习算法= | ||
+ | |||
+ | ==样本重加权== | ||
+ | |||
+ | 现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。 |
2024年8月13日 (二) 15:43的版本
分布外泛化那个章节记得加文献和引用。
PLL:加了两篇
崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o
YMZ:没事,就直接网页上查标题就行了,就是提醒一下有这个意识就行,不算是问题~
NIS+ 概述
这块OK啦,看看有什么引用可以加的
NIS+ 数学推导
要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。
宏观EI的变分下界
目前引理那部分有两块相同内容,可以把重复的删掉。
新的优化目标那里,有好多行是写数学符号的,可以参照1式的样子,把那些行都写成一个case的形式。
其他没啥问题了,下次看看张老师对这部分是什么意见。
编码器的通用逼近定理
这里的引理要和之前格式一样哦。
机器学习算法
样本重加权
现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。