更改

删除3字节 、 2024年8月31日 (星期六)
第315行: 第315行:  
====神经信息压缩方法====
 
====神经信息压缩方法====
   −
近年来,新兴的[[人工智能]]技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的[[神经网络]]结构和[[自动微分]]技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等尝试基于神经网络提出一种基于数据驱动的能够从时间序列数据中识别系统中的因果涌现方法<ref name="NIS">Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref><ref name=":6" />,该方法能自动提取有效的粗粒化策略和宏观动力学,克服了Rosas方法<ref name=":5" />中的种种不足。
+
近年来,新兴的[[人工智能]]技术已经攻克一系列重大难题,同时机器学习方法配备了各种精心设计的[[神经网络]]结构和[[自动微分]]技术,可以在巨大的函数空间中逼近任何函数。因此,[[张江]]等尝试基于神经网络提出一种基于数据驱动的能够从时间序列数据中识别因果涌现的方法<ref name="NIS">Zhang J, Liu K. Neural information squeezer for causal emergence[J]. Entropy, 2022, 25(1): 26.</ref><ref name=":6" />,该方法能自动提取有效的粗粒化策略和宏观动力学,克服了Rosas方法<ref name=":5" />的种种不足。
    
在该工作中,输入的是时间序列数据<math>(X_1,X_2,...,X_T ) </math>,且<math>X_t\equiv (X_t^1,X_t^2,…,X_t^p ) </math>,<math>p </math>表示输入数据的维数。作者假设,这组数据是由一个一般的[[随机动力系统]]产生:
 
在该工作中,输入的是时间序列数据<math>(X_1,X_2,...,X_T ) </math>,且<math>X_t\equiv (X_t^1,X_t^2,…,X_t^p ) </math>,<math>p </math>表示输入数据的维数。作者假设,这组数据是由一个一般的[[随机动力系统]]产生:
第321行: 第321行:  
<math>\frac{d X}{d t}=f(X(t), \xi) </math>
 
<math>\frac{d X}{d t}=f(X(t), \xi) </math>
   −
其中[math]X(t)[/math]是微观状态变量,[math]f[/math]是微观动力学,<math>\xi </math>表示系统中的噪音,可以建模动力系统中的随机特性。但是,<math>f</math>是未知的。
+
其中[math]X(t)[/math]是微观状态变量,[math]f[/math]是微观动力学,<math>\xi </math>表示系统动力学中的噪音,可以建模动力系统中的随机特性。但是,<math>f</math>是未知的。
    
所谓的因果涌现识别问题是指这样的一个泛函优化问题:
 
所谓的因果涌现识别问题是指这样的一个泛函优化问题:
786

个编辑