更改

跳到导航 跳到搜索
添加324字节 、 2024年7月29日 (星期一)
第21行: 第21行:  
*,该方法能从时间序列数据中
 
*,该方法能从时间序列数据中
   −
这里要么另起一句,要么去掉这里的主语
+
这里要么另起一句,要么去掉这里的主语(主语已删除)
    
* 粗粒度策略
 
* 粗粒度策略
   −
粗粒化策略(从别的词条搬运的时候可以扫一下有没有基本的语病或术语错误,你发现的话也可以直接在他们的讨论里提意见)
+
粗粒化策略(从别的词条搬运的时候可以扫一下有没有基本的语病或术语错误,你发现的话也可以直接在他们的讨论里提意见)(已改,好哒,我以后注意)
    
* 在编码器一步,虽然有丢失信息,但是通过数学证明可以得知,当神经网络训练收敛时,数据中相邻宏观状态之间的互信息倾向于接近两个相邻时间步的微观态互信息,丢失的信息与预测几乎无关,所有有效信息都汇聚到动力学学习器的信息瓶颈之中。且在此框架下,信息瓶颈的应用更加明显、更具可解释性。
 
* 在编码器一步,虽然有丢失信息,但是通过数学证明可以得知,当神经网络训练收敛时,数据中相邻宏观状态之间的互信息倾向于接近两个相邻时间步的微观态互信息,丢失的信息与预测几乎无关,所有有效信息都汇聚到动力学学习器的信息瓶颈之中。且在此框架下,信息瓶颈的应用更加明显、更具可解释性。
   −
这一段放后面吧,让这里更简洁一点。
+
这一段放后面吧,让这里更简洁一点。(已改位置)
    
* 虽然可以通过两个阶段得到结果,但是NIS没有真正地最大化有效信息。由于此方法的数学形式是一个泛函问题,无法直接进行优化,在NIS+中,将通过计算变分下界解决泛函问题。
 
* 虽然可以通过两个阶段得到结果,但是NIS没有真正地最大化有效信息。由于此方法的数学形式是一个泛函问题,无法直接进行优化,在NIS+中,将通过计算变分下界解决泛函问题。
   −
我发现这里这样简单讲很难看懂,要不然这里就不放缺陷了,后面讲缺陷的时候统一讲。
+
我发现这里这样简单讲很难看懂,要不然这里就不放缺陷了,后面讲缺陷的时候统一讲。(好哒,识别这里要不要只介绍输入、输出、框架,这三个部分,两阶段也在下面解释,这里只说明没有最大化)
    
* 动力学学习器由神经网络(Neural Network,简称NN)构建
 
* 动力学学习器由神经网络(Neural Network,简称NN)构建
   −
在这个地方,MLP(Multilayer Perceptron)是比NN更具体和专业的说法。我和张老师写文章的时候都没怎么注意,写词条的时候你可以注意一下。
+
在这个地方,MLP(Multilayer Perceptron)是比NN更具体和专业的说法。我和张老师写文章的时候都没怎么注意,写词条的时候你可以注意一下。(已改:动力学学习器由多层感知机(Multilayer Perceptron,简称MLP)构建)
196

个编辑

导航菜单