更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
因果涌现
(查看源代码)
2024年9月1日 (日) 14:36的版本
添加33字节
、
2024年9月1日 (星期日)
→基于机器学习的方法
第308行:
第308行:
=====基于机器学习的方法=====
=====基于机器学习的方法=====
−
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的理论方法,用算法通过最大化<math>\mathrm{\Psi} </math>
而自发学习到宏观态变量
<math>V</math>变量。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化神经网络。该神经网络系统的架构图如下图所示。
+
Kaplanis等人<ref name=":2" />基于[[表示机器学习]](Representation learning)的理论方法,用算法通过最大化<math>\mathrm{\Psi} </math>
(即公式{{EquationNote|1}})而自发学习到宏观态变量
<math>V</math>变量。具体的,作者们使用神经网络<math>f_{\theta}</math>来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>的表示函数,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>等互信息的计算,最后该方法通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化神经网络。该神经网络系统的架构图如下图所示。
[[文件:学习因果涌现表征的架构.png|居左|600x600像素|学习因果涌现表征的架构]]
[[文件:学习因果涌现表征的架构.png|居左|600x600像素|学习因果涌现表征的架构]]
相信未来
2,437
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本