“讨论:NIS+”的版本间的差异
跳到导航
跳到搜索
第24行: | 第24行: | ||
=NIS+ 数学推导= | =NIS+ 数学推导= | ||
− | + | 目前数学符号有些下标有错位的情况。 | |
+ | |||
+ | * 首先,先给出三个辅助定理和一个假设。 | ||
+ | |||
+ | lemma翻译为 引理。最好不要一上来就讲引理和假设。这跟写数学证明不太一样。可以把引理放在这一节的最后,用特定的格式和其他内容区别开来。比如 加粗的“引理”+序号+引理名称+引理内容。而在这一节开头的部分,可以从宏观EI的原始公式出发,在需要引理的时候文内引用引理,需要假设的时候也可以直接写假设是什么,不过也要用特殊的格式以作区分。 |
2024年8月3日 (六) 16:53的版本
分布外泛化那个章节记得加文献和引用。
PLL:加了两篇
崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
NIS+ 概述
- 在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,我们引入神经网络
来学习逆宏观动力学
这个表述有问题,数学框架的转化过程中自然就引入了反向动力学
- 概率重加权
中文可以统一称呼为 样本概率重加权 或 样本重加权
NIS+ 数学推导
目前数学符号有些下标有错位的情况。
- 首先,先给出三个辅助定理和一个假设。
lemma翻译为 引理。最好不要一上来就讲引理和假设。这跟写数学证明不太一样。可以把引理放在这一节的最后,用特定的格式和其他内容区别开来。比如 加粗的“引理”+序号+引理名称+引理内容。而在这一节开头的部分,可以从宏观EI的原始公式出发,在需要引理的时候文内引用引理,需要假设的时候也可以直接写假设是什么,不过也要用特殊的格式以作区分。