打开主菜单
首页
随机
登录
设置
关于集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
免责声明
集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
搜索
更改
←上一编辑
下一编辑→
NIS
(查看源代码)
2024年8月31日 (六) 22:28的版本
添加30字节
、
2024年8月31日 (星期六)
→互信息随尺度的变化
第269行:
第269行:
==互信息随尺度的变化==
==互信息随尺度的变化==
−
由信息瓶颈理论与互信息理论,推出如下推论:
+
由信息瓶颈理论与互信息理论,论文<ref name="1" />可以推出如下推论:
第275行:
第275行:
对于训练充分的NIS模型,宏观动力学<math>f_\beta</math>的互信息将与所有参数(包括刻度<math>q</math>)无关。
对于训练充分的NIS模型,宏观动力学<math>f_\beta</math>的互信息将与所有参数(包括刻度<math>q</math>)无关。
−
如果神经网络训练充分,则有关宏观动力学的互信息将接近数据<math>\{\mathbf{x}_t\}</math>
中的信息。因此,无论
<math>q</math>有多小(或尺度有多大),宏观动力学<math>f_\beta</math>的互信息都会保持恒定。
+
如果神经网络训练充分,则有关宏观动力学的互信息将接近数据<math>\{\mathbf{x}_t\}</math>
中的互信息。因此,无论
<math>q</math>有多小(或尺度有多大),宏观动力学<math>f_\beta</math>的互信息都会保持恒定。
−
由此可得,<math>q</math>
是因果涌现的无关参数。但根据dEI的定义,较小的
<math>q</math>意味着编码器将携带更多有效信息。
+
由此可得,<math>q</math>
是因果涌现的无关参数。但根据EI的定义,较小的
<math>q</math>意味着编码器将携带更多有效信息。
Jake
786
个编辑