更改

跳到导航 跳到搜索
添加420字节 、 2024年7月30日 (星期二)
第23行: 第23行:     
YMZ: 不是这张图,而是Learning Causally Emergent Representations这篇文章里的神经网络框架。不过我看了一下,因果涌现词条那里也写的非常简单,那你这里就不放图了吧,一句话说明他们也用了机器学习框架,就不提他那些数学符号了。然后这句话里引上参考文献Learning Causally Emergent Representations
 
YMZ: 不是这张图,而是Learning Causally Emergent Representations这篇文章里的神经网络框架。不过我看了一下,因果涌现词条那里也写的非常简单,那你这里就不放图了吧,一句话说明他们也用了机器学习框架,就不提他那些数学符号了。然后这句话里引上参考文献Learning Causally Emergent Representations
 +
 +
* 该方法避开讨论粗粒化策略
 +
 +
这个是在哪里看到的?它最初定义确实可以不考虑粗粒化策略,但现在这个充分条件还是需要给定粗粒化策略才能有宏观变量来计算的。谈它的优势可以谈两点:1. 因为是格兰杰因果,所以计算比较方便,不需要找到底层的动力学机制;2. 它对系统的动力学没有马尔可夫性的假设和要求
    
=NIS系列=
 
=NIS系列=
251

个编辑

导航菜单