更改

跳到导航 跳到搜索
大小无更改 、 2024年8月6日 (星期二)
第200行: 第200行:     
Kaplanis等人<ref name=":2" />基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
 
Kaplanis等人<ref name=":2" />基于机器学习的方法学习宏观态<math>V</math>以及最大化<math>\mathrm{\Psi} </math>:使用<math>f_{\theta}</math>神经网络来学习将微观输入<math>X_t</math>粗粒化成宏观输出<math>V_t</math>,同时使用神经网络<math>g_{\phi}</math>和<math>h_{\xi}</math>来分别学习<math>I(V_t;V_{t+1})</math>和<math>\sum_i(I(V_{t+1};X_{t}^i))</math>两者互信息的计算,最后通过最大化两者之间的差(即<math>\mathrm{\Psi} </math>)来优化学习。
[[文件:LCCR.png|居中|400x400像素|替代=NIS模型框架图|学习因果涌现表征的架构|缩略图]]
+
[[文件:LCCR.png|居中|500x500像素|替代=NIS模型框架图|学习因果涌现表征的架构|缩略图]]
    
====神经信息压缩方法====
 
====神经信息压缩方法====
1,836

个编辑

导航菜单