“讨论:NIS+”的版本间的差异

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
跳到导航 跳到搜索
第34行: 第34行:
  
 
这里的引理要和之前格式一样哦。
 
这里的引理要和之前格式一样哦。
 +
 +
=机器学习算法=
 +
 +
==样本重加权==
 +
 +
现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。

2024年8月13日 (二) 15:43的版本

分布外泛化那个章节记得加文献和引用。

PLL:加了两篇

崔鹏老师: Cui, Peng, Athey, et al. Stable learning establishes some common ground between causal inference and machine learning. nature machine intelligence, 2022, 4(2): 110-115

综述里面引用的:Arjovsky, M.; Bottou, L.; Gulrajani, I.; Lopez-Paz, D. Invariant risk minimization. arXiv 2019, arXiv:1907.02893 因果比相关性更好

YMZ: 可以。所有arxiv上的文章可以多查一下,看有没有已经正式发表的。有的话引正式发表的版本。

PLL:web of science登录后只能查研究人员,查不了文献o(╥﹏╥)o

YMZ:没事,就直接网页上查标题就行了,就是提醒一下有这个意识就行,不算是问题~

NIS+ 概述

这块OK啦,看看有什么引用可以加的

NIS+ 数学推导

要分别有一段文字,介绍为什么我们需要变分下界和通用逼近定理这两个定理及其证明。

宏观EI的变分下界

目前引理那部分有两块相同内容,可以把重复的删掉。

新的优化目标那里,有好多行是写数学符号的,可以参照1式的样子,把那些行都写成一个case的形式。

其他没啥问题了,下次看看张老师对这部分是什么意见。

编码器的通用逼近定理

这里的引理要和之前格式一样哦。

机器学习算法

样本重加权

现在直接就讲怎么做的了,还是要在这之前介绍一下为什么需要样本重加权,提及它在因果机器学习或因果推断领域中的发展,尤其是把它和前面数学推导出来的w相联系。