− | 解码器将宏观状态 <math>\mathbf{y}(t + 1)</math> 的预测转换为微观状态 <math>\hat{\mathbf{x}}_{t+1}</math> 的预测。在这个框架中,粗粒化策略 <math>\phi_q</math> 可以分解为双射器 <math>\psi_\alpha</math> 和投影器 <math>\chi_q</math>,因此解码器可以直接通过反转 <math>\psi_\alpha</math> 得到。然而,由于宏观状态的维度是 <math>q</math>,而 <math>\psi_\alpha</math> 的输入维度是 <math>p > q</math>,因此需要用 <math>p-q</math> 维高斯随机向量填充剩余的 <math>p-q</math> 维。对于任何 <math>\phi_q</math>,解码映射可以定义为: | + | 解码器将宏观状态 <math>\mathbf{y}(t + 1)</math> 的预测转换为微观状态 <math>\hat{\mathbf{x}}_{t+1}</math> 的预测。在这个框架中,粗粒化策略 <math>\phi_q</math> 可以分解为可逆函数 <math>\psi</math> 和投影器 <math>\chi_q</math>,因此解码器可以直接通过反转 <math>\psi</math> 得到。然而,由于宏观状态的维度是 <math>q</math>,而 <math>\psi</math> 的输入维度是 <math>p > q</math>,因此需要用 <math>p-q</math> 维高斯随机向量填充剩余的 <math>p-q</math> 维。对于任何 <math>\phi_q</math>,解码映射可以定义为: |
− | 其中,<math>\psi_\alpha^{-1}</math> 是 <math>\psi_\alpha</math> 的逆函数,<math> \chi_q^† : \mathbb{R}^q \rightarrow \mathbb{R}^p</math> 定义为:对于任意 <math>\mathbf{x} \in \mathbb{R}^p</math>,有 | + | 其中,<math>\psi^{-1}</math> 是 <math>\psi_\alpha</math> 的逆函数,<math> \chi_q^† : \mathbb{R}^q \rightarrow \mathbb{R}^p</math> 定义为:对于任意 <math>\mathbf{x} \in \mathbb{R}^p</math>,有 |
| 其中,<math>\mathbf{z}_{p-q} \sim \mathcal{N}(0, \mathcal{I}_{p-q})</math> 是 <math>p-q</math> 维的高斯随机噪声,<math>\mathcal{I}_{p-q}</math> 是同维度的单位矩阵。这样可以结合 <math>\mathbf{x}_q</math> 和一个来自 <math>p-q</math> 维标准正态分布的随机样本 <math>\mathbf{z}_{p-q}</math> 生成微观状态。 | | 其中,<math>\mathbf{z}_{p-q} \sim \mathcal{N}(0, \mathcal{I}_{p-q})</math> 是 <math>p-q</math> 维的高斯随机噪声,<math>\mathcal{I}_{p-q}</math> 是同维度的单位矩阵。这样可以结合 <math>\mathbf{x}_q</math> 和一个来自 <math>p-q</math> 维标准正态分布的随机样本 <math>\mathbf{z}_{p-q}</math> 生成微观状态。 |
− | 解码器可以被视为条件概率 <math>Pr(\hat{\mathbf{x}}_{t+1} | \mathbf{y}(t+1))</math> 的生成模型<ref name=":3">Li, S.H.; Wang, L. Neural Network Renormalization Group. Phys. Rev. Lett. 2018, 121, 260601.</ref><ref name=":4">Hu,H.; Wu,D.; You, Y.Z.; Olshausen, B.; Chen, Y. RG-Flow: A hierarchical and explainable flow model based on renormalization group and sparse prior. Mach. Learn. Sci. Technol. 2022, 3, 035009.</ref>,而编码器执行重整化过程。 | + | 解码器可以被视为条件概率 <math>Pr(\hat{\mathbf{x}}_{t+1} | \mathbf{y}(t+1))</math> 的生成模型<ref name=":3">Li, S.H.; Wang, L. Neural Network Renormalization Group. Phys. Rev. Lett. 2018, 121, 260601.</ref><ref name=":4">Hu,H.; Wu,D.; You, Y.Z.; Olshausen, B.; Chen, Y. RG-Flow: A hierarchical and explainable flow model based on renormalization group and sparse prior. Mach. Learn. Sci. Technol. 2022, 3, 035009.</ref>,而编码器执行粗粒化过程(也可以称为重整化Renormalization)。 |