“讨论:NIS+”的版本间的差异

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
跳到导航 跳到搜索
讨论 | 贡献
第10行: 第10行:
  
 
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
 
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
 +
 +
PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o
  
 
=NIS+ 概述=
 
=NIS+ 概述=
第19行: 第21行:
  
 
这个表述有问题,数学框架的转化过程中自然就引入了反向动力学
 
这个表述有问题,数学框架的转化过程中自然就引入了反向动力学
 +
 +
PLL:已改,删除  我们引入神经网络来学习逆宏观动力学  这句话
  
 
* 概率重加权
 
* 概率重加权

2024年8月4日 (日) 20:53的版本

分布外泛化那个章节记得加文献和引用。

PLL:加了两篇

崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115

综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好

YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。

PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o

NIS+ 概述

概述里还没有把大图讲完。输入和输出。

  • 在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,我们引入神经网络

来学习逆宏观动力学

这个表述有问题,数学框架的转化过程中自然就引入了反向动力学

PLL:已改,删除 我们引入神经网络来学习逆宏观动力学 这句话

  • 概率重加权

中文可以统一称呼为 样本概率重加权 或 样本重加权

NIS+ 数学推导

目前数学符号有些下标有错位的情况。

  • 首先,先给出三个辅助定理和一个假设。

lemma翻译为 引理。最好不要一上来就讲引理和假设。这跟写数学证明不太一样。可以把引理放在这一节的最后,用特定的格式和其他内容区别开来。比如 加粗的“引理”+序号+引理名称+引理内容。而在这一节开头的部分,可以从宏观EI的原始公式出发,在需要引理的时候文内引用引理,需要假设的时候也可以直接写假设是什么,不过也要用特殊的格式以作区分。