“讨论:NIS+”的版本间的差异
(→NIS 缺陷) |
(→NIS 缺陷) |
||
第60行: | 第60行: | ||
黑箱除了INN,还有宏观动力学学习器。 | 黑箱除了INN,还有宏观动力学学习器。 | ||
+ | |||
+ | * 模型所能预测的条件分布实际上仅限于高斯分布或拉普拉斯分布。 | ||
+ | |||
+ | 这个不用提了,这是AI领域对神经网络可以接受的假设,不是我们关心的缺陷。可以加一条模型对马尔科夫性的假设。这是一个重要的局限。 |
2024年8月1日 (四) 14:48的版本
基于信息分解的因果涌现识别
- 该方法只是基于互信息计算没有考虑因果,
Rosas他们也声称是因果涌现,是因为他们是基于格兰杰因果的。所以不能说它们完全没考虑因果,只是要比较格兰杰因果和Judea Pearl的因果。
(已改,神经网络框架是指?图片是这个吗?)
YMZ: 不是这张图,而是Learning Causally Emergent Representations这篇文章里的神经网络框架。不过我看了一下,因果涌现词条那里也写的非常简单,那你这里就不放图了吧,一句话说明他们也用了机器学习框架,就不提他那些数学符号了。然后这句话里引上参考文献Learning Causally Emergent Representations(已改:Rosas等学者利用机器学习框架【6】,通过信息分解来识别量化因果涌现,但是信息分解框架中定义的信息原子难以计算,——这篇文章的第一作者是Kaplanis要不要放在讲Kaplanis那里)
YMZ:要的,机器学习框架放到结尾来介绍,而不是开头
PLL:需要指出的是,Hoel的方法基于Judea Pearl因果,而此方法是基于格兰杰因果,利用机器学习框架,计算互信息的组合,没有引入do干预。这样呢? (YMZ:把“没有引入do干预”换成“容易出现造成虚假关联的混杂因子”就可以了)
YMZ:开头再加上 Rosas等人通过信息分解框架给出了和Hoel等人不同的对因果涌现的新定义 这一个信息点。其他没啥问题了。
PLL:已加,但是位置是最开头吗?
YMZ:可以的,这一段没什么大问题了,有些衔接不通畅的地方我润色了一下,你可以再通读和润色一些语句,然后就可以加文献和引用了。
NIS系列
目前这一小节没啥问题了,可以加参考文献和交叉引用了。
PLL:参考文献添加了neural information squeezer for causal emergence这片,链接主要是NIS。如果师兄觉得可以,就把这个讨论删一下?
YMZ:可逆神经网络也加上对应的参考文献吧
机器学习领域的分布外泛化问题
- 而在动力学系统中,模型可能对初始条件非常敏感,即使是微小的初始条件变化也可能导致系统行为的显著差异。如果训练数据的初始条件分布与测试数据不同,模型可能无法准确预测测试数据下的系统行为。甚至如果一些动力学参数不一样,也会造成模型的结果不准确。
这句话逻辑不太准确,我改了一下你可以看看。
这个小节没其他问题了~
NIS 概述
NIS要不要提一句dEI和dCE?
YMZ:要提一下
- 为了降低编码器 和解码器 的复杂程度,作者将编码过程分解为两个步骤
应该是为了数学性质和可解释性,以及降低模型参数量,采用了可逆神经网络。所以编码过程分解为了两个步骤。
NIS 缺陷
- PLL:这样写可以吗?感觉不知道怎么写详细?
YMZ:差不多,也不用特别详细,但还需要写的更准确。
- INN网络在大数据集上难以训练,此模型目前只能在小数据集上使用。
这一点上不用提INN,就说整个框架难以拓展到更大规模的复杂系统上。
- 虽然我们可以说明什么是粗粒度函数,并将其清晰地分解为信息转换和信息丢弃两个部分
黑箱除了INN,还有宏观动力学学习器。
- 模型所能预测的条件分布实际上仅限于高斯分布或拉普拉斯分布。
这个不用提了,这是AI领域对神经网络可以接受的假设,不是我们关心的缺陷。可以加一条模型对马尔科夫性的假设。这是一个重要的局限。