更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
讨论:NIS+
(查看源代码)
2024年7月30日 (二) 22:13的版本
添加467字节
、
2024年7月30日 (星期二)
→基于信息分解的因果涌现识别
第9行:
第9行:
这句话再重新组织一下吧,不然容易让人感觉后面说的“此方法”指的是Hoel的方法。
这句话再重新组织一下吧,不然容易让人感觉后面说的“此方法”指的是Hoel的方法。
+
(已改 :需要指出的是,Hoel的方法基于Judea Pearl因果,而此方法是基于格兰杰因果,且只是互信息的组合,没有引入do干预。)
* 该方法只是基于互信息计算没有考虑因果,
* 该方法只是基于互信息计算没有考虑因果,
第16行:
第17行:
(已改,神经网络框架是指?图片是这个吗?)
(已改,神经网络框架是指?图片是这个吗?)
−
YMZ: 不是这张图,而是Learning Causally Emergent Representations这篇文章里的神经网络框架。不过我看了一下,因果涌现词条那里也写的非常简单,那你这里就不放图了吧,一句话说明他们也用了机器学习框架,就不提他那些数学符号了。然后这句话里引上参考文献Learning Causally Emergent
Representations
+
YMZ: 不是这张图,而是Learning Causally Emergent Representations这篇文章里的神经网络框架。不过我看了一下,因果涌现词条那里也写的非常简单,那你这里就不放图了吧,一句话说明他们也用了机器学习框架,就不提他那些数学符号了。然后这句话里引上参考文献Learning Causally Emergent
Representations(已改:Rosas等学者利用机器学习框架【6】,通过信息分解来识别量化因果涌现,但是信息分解框架中定义的信息原子难以计算,——这篇文章的第一作者是Kaplanis要不要放在讲Kaplanis那里)
* 该方法避开讨论粗粒化策略
* 该方法避开讨论粗粒化策略
−
这个是在哪里看到的?它最初定义确实可以不考虑粗粒化策略,但现在这个充分条件还是需要给定粗粒化策略才能有宏观变量来计算的。谈它的优势可以谈两点:1
. 因为是格兰杰因果,所以计算比较方便,不需要找到底层的动力学机制;2.
它对系统的动力学没有马尔可夫性的假设和要求
+
这个是在哪里看到的?(因果涌现词条)它最初定义确实可以不考虑粗粒化策略,但现在这个充分条件还是需要给定粗粒化策略才能有宏观变量来计算的。谈它的优势可以谈两点:1
. 因为是格兰杰因果,所以计算比较方便,不需要找到底层的动力学机制;2.
它对系统的动力学没有马尔可夫性的假设和要求(已改)
* 当系统具有大量冗余信息或具有许多变量时,该方法的计算复杂度仍然很高。
* 当系统具有大量冗余信息或具有许多变量时,该方法的计算复杂度仍然很高。
−
就互信息计算本身而言计算复杂度不会上升的很多。这个缺点可以换成,高维系统中,psi作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。
+
就互信息计算本身而言计算复杂度不会上升的很多。这个缺点可以换成,高维系统中,psi作为近似条件,误差非常大,很容易得到负值,从而无法判断是否有因果涌现发生。(已改)
=NIS系列=
=NIS系列=
念
259
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本