更改

删除624字节 、 2024年8月13日 (星期二)
无编辑摘要
第1行: 第1行: −
  −
分布外泛化那个章节记得加文献和引用。
  −
  −
PLL:加了两篇
  −
  −
崔鹏老师:
  −
Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115
  −
  −
综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893  因果比相关性更好
  −
  −
YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。
  −
  −
PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o
  −
  −
YMZ:没事,就直接网页上查标题就行了,就是提醒一下有这个意识就行,不算是问题~
  −
  −
=NIS+ 概述=
  −
  −
这块OK啦,看看有什么引用可以加的
  −
   
=NIS+ 数学推导=
 
=NIS+ 数学推导=
    
要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。
 
要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。
   −
==宏观EI的变分下界==
+
PLL:加入:(这样写可不可以?)
   −
目前引理那部分有两块相同内容,可以把重复的删掉。
+
式1中,数学形式是一个泛函问题,无法直接进行优化,学者将通过计算变分下界解决泛函问题。同时,在NIS+框架中,学者使用了编码器将p维的输入数据进行粗粒化,得到q维的宏观数据,下面编码器的通用逼近定理将证明编码器的可以近似粗粒化函数。
 
  −
新的优化目标那里,有好多行是写数学符号的,可以参照1式的样子,把那些行都写成一个case的形式。
  −
 
  −
其他没啥问题了,下次看看张老师对这部分是什么意见。
      
==编码器的通用逼近定理==
 
==编码器的通用逼近定理==
    
这里的引理要和之前格式一样哦。
 
这里的引理要和之前格式一样哦。
 +
 +
PLL:师兄,这个引理在附录里面没有命名,要不您在起一个?
    
=机器学习算法=
 
=机器学习算法=
第40行: 第18行:     
现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。
 
现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。
 +
 +
PLL:已改,师兄看看我理解对不对?
259

个编辑