更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
NIS+
(查看源代码)
2024年9月6日 (五) 16:39的版本
删除4字节
、
2024年9月6日 (星期五)
→基于信息分解的因果涌现识别
第30行:
第30行:
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
当<math>\Psi_{t, t+1}(V) > 0 </math>,系统发生[[因果涌现]]。但当<math>\mathrm{\Psi}<0 </math>,我们不能确定系统是否发生[[因果涌现]]。
−
需要指出的是,Hoel的定义和识别方法基于Judea Pearl因果,而此方法是基于[[格兰杰因果关系|格兰杰因果]],计算
[[互信息]]
的组合,没有引入do干预。
+
需要指出的是,Rosas方法是对
[[互信息]]
进行进一步分解,整个过程没有引入do干预,因而是基于相关性度量的。而Hoel的因果涌现理论则是基于Judea Pearl因果的。
−
该方法因为是[[格兰杰因果关系|格兰杰因果]],所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
+
Rosas方法因为是基于相关性的,所以计算比较方便,不需要找到底层的动力学机制。且对系统的动力学没有马尔可夫性的假设和要求。但是也存在一些缺点:
1)该方法只是基于[[互信息]]计算,且得到的仅仅是发生[[因果涌现]]的近似的充分条件;
1)该方法只是基于[[互信息]]计算,且得到的仅仅是发生[[因果涌现]]的近似的充分条件;
第40行:
第40行:
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
3)高维系统中,<math>\Psi </math>作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
−
为了能够自动找到最佳的粗粒化策略,这套理论框架也发展出了相应的机器学习方法<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>。Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习[[互信息]]
的计算,最后通过最大化两者之间的差
(即<math>\mathrm{\Psi} </math>)来优化学习。
+
为了能够自动找到最佳的粗粒化策略,这套理论框架也发展出了相应的机器学习方法<ref>Kaplanis Christos, Mediano Pedro, Rosas Fernando. Learning Causally Emergent Representations''. NeurIPS 2023 workshop: Information-Theoretic Principles in Cognitive Systems''</ref>。Kaplanis等人基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用神经网络来学习将微观输入粗粒化成宏观输出,同时使用两个神经网络来分别学习[[互信息]]
的计算,最后通过最大化两者之间的差
(即<math>\mathrm{\Psi} </math>)来优化学习。
=== NIS系列 ===
=== NIS系列 ===
Jake
786
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本