“讨论:NIS”的版本间的差异
跳到导航
跳到搜索
(→琐碎的策略) |
|||
第6行: | 第6行: | ||
NIS的这三部分并不都是可逆的,只有编码解码器可逆,而且这两个共享同一个神经网络。 | NIS的这三部分并不都是可逆的,只有编码解码器可逆,而且这两个共享同一个神经网络。 | ||
− | + | * 琐碎的策略 | |
建议用 平凡解 来作对应的中文名词 | 建议用 平凡解 来作对应的中文名词 | ||
+ | |||
+ | * 数学框架:最大化EI | ||
+ | |||
+ | 这里感觉因果容量没说清楚。改变输入概率分布和改变干预分布的区别是什么?(所以因果容量和信道容量有区别吗?)另外,后面又提到宏观态和最大熵分布,这和因果容量是什么关系? |
2024年7月17日 (三) 11:38的版本
- NIS(神经信息压缩器)是一个以最大化粗粒化过程中有效信息的神经网络框架。
NIS的提出实际上是为了解决因果涌现辨识问题的。而且,NIS虽然力图最大化EI,但第一个版本并没有真正实现这个目标。
- 它由可逆神经网络组成,分为编码器、解码器、动力学学习器三部分
NIS的这三部分并不都是可逆的,只有编码解码器可逆,而且这两个共享同一个神经网络。
- 琐碎的策略
建议用 平凡解 来作对应的中文名词
- 数学框架:最大化EI
这里感觉因果容量没说清楚。改变输入概率分布和改变干预分布的区别是什么?(所以因果容量和信道容量有区别吗?)另外,后面又提到宏观态和最大熵分布,这和因果容量是什么关系?