更改

跳到导航 跳到搜索
添加16字节 、 2024年8月5日 (星期一)
第204行: 第204行:  
====神经信息压缩方法====
 
====神经信息压缩方法====
   −
近年来,新兴的[[人工智能]]技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的神经网络结构和自动微分技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等<ref>Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref>尝试基于神经网络提出了一种基于数据驱动的能够从时间序列数据中识别系统中的因果涌现方法,该方法能自动提取有效的粗粒度策略和宏观动力学,克服了信息分解方法中的种种不足。
+
近年来,新兴的[[人工智能]]技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的[[神经网络]]结构和[[自动微分]]技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等<ref>Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref>尝试基于神经网络提出了一种基于数据驱动的能够从时间序列数据中识别系统中的因果涌现方法,该方法能自动提取有效的粗粒化策略和宏观动力学,克服了[[信息分解]]方法中的种种不足。
   −
在该工作中,输入的是时间序列数据<math>(X_1,X_2,...,X_T ) </math>,可以使用如下的微方方程表示:
+
在该工作中,输入的是时间序列数据<math>(X_1,X_2,...,X_T ) </math>,可以使用如下的[[微分方程]]表示:
    
<math>\frac{d X}{d t}=f(X(t), \xi) </math>
 
<math>\frac{d X}{d t}=f(X(t), \xi) </math>
1,884

个编辑

导航菜单