“讨论:NIS+”的版本间的差异
跳到导航
跳到搜索
第8行: | 第8行: | ||
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好 | 综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好 | ||
+ | |||
+ | YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。 | ||
+ | |||
+ | =NIS+ 概述= | ||
+ | |||
+ | * 在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,我们引入神经网络 | ||
+ | 来学习逆宏观动力学 | ||
+ | |||
+ | 这个表述有问题,数学框架的转化过程中自然就引入了反向动力学 | ||
=NIS+ 数学推导= | =NIS+ 数学推导= | ||
变分下界这一节比较难,你先试着写一写,后面我们可以找个时间线上讨论一下。 | 变分下界这一节比较难,你先试着写一写,后面我们可以找个时间线上讨论一下。 |
2024年8月3日 (六) 16:43的版本
分布外泛化那个章节记得加文献和引用。
PLL:加了两篇
崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
NIS+ 概述
- 在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,我们引入神经网络
来学习逆宏观动力学
这个表述有问题,数学框架的转化过程中自然就引入了反向动力学
NIS+ 数学推导
变分下界这一节比较难,你先试着写一写,后面我们可以找个时间线上讨论一下。