更改

添加430字节 、 2024年8月3日 (星期六)
无编辑摘要
第8行: 第8行:     
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893  因果比相关性更好
 
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893  因果比相关性更好
 +
 +
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
 +
 +
=NIS+ 概述=
 +
 +
* 在NIS+中,我们首先使用互信息和变分不等式的公式将互信息的最大化问题转化为机器学习问题,其次,我们引入神经网络
 +
来学习逆宏观动力学
 +
 +
这个表述有问题,数学框架的转化过程中自然就引入了反向动力学
    
=NIS+ 数学推导=
 
=NIS+ 数学推导=
    
变分下界这一节比较难,你先试着写一写,后面我们可以找个时间线上讨论一下。
 
变分下界这一节比较难,你先试着写一写,后面我们可以找个时间线上讨论一下。
264

个编辑