储备池计算

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
跳到导航 跳到搜索


储备池计算 Reservoir computing是一个从循环神经网络理论中得出来的计算框架,储备池是一个固定的,非线性系统,其内部具有动力学过程,这个动力学过程将输入信号映射到更高维的计算空间。[1]当输入信号被送入储备池(储备池通常被当作一个“黑匣子”)后,可以训练一个简单的读出机制来读取储备池中神经元的状态并将其映射到所需的输出。[1]这个框架的第一个关键好处是,训练只在读出阶段进行,在读出阶段储备池动力学特性保持不变。[1]第二个好处是这个储备池系统的计算能力,无论是在经典力学还是量子力学中,都可以有效的降低计算成本。[2]


历史

储备池计算的概念源于神经网络中使用递归连接来创建一个复杂的动力系统。[3]它是对早期神经网络体系结构,比如循环神经网络,液体状态机和回声状态网络的一个推广。储备计算还可以扩展到物理系统,在物理系统中它不是传统意义上的网络,而是空间和/或时间上的连续系统: 例如:。“一桶水”可以看作一个蓄水池,可以对它表面的扰动输入进行计算。[4]循环神经网络内部的复杂性,对于解决包括语言处理和动态系统建模在内的各种问题是有用的。[3]然而,循环神经网络的训练是具有挑战性的,它的计算开销十分巨大。[3]储备池计算通过固定储备池的动力学特性,只训练线性读出层的特点,可以减少循环神经网络在训练上的问题。[3]


各种各样的非线性动力系统可以看作一个储备池来进行计算。近年来,半导体激光器引起了人们的极大兴趣,因为与电子元件相比,半导体激光器的运算速度更快,能量效率更高。


人工智能和量子信息理论的最新进展引出了量子神经网络的概念。[5]这些技术在量子信息处理领域具有广阔的应用前景, 量子神经网络正在逐渐挑战经典的网络,同时量子神经网络在解决经典问题方面也具有广阔的应用前景。[5][6]2018年,一个量子储备池计算架构的物理实现以分子固体中的核自旋的形式被证明。[6]然而,核自旋实验[6]并没有证明量子储备池计算本身,因为它们并不涉及序列数据的处理。相反,当数据是矢量输入时,其更准确地演示了一个随机厨房槽[7]算法的量子实现(在一些社区中也被称为极限学习机制)。2019年,另一种可能的量子库处理器的实现被提出,以二维费米晶格的形式来实现。[6]2020年,在基于门的量子计算机上实现了储备池计算,并在基于云的 IBM 超导近期量子计算机上进行了演示。[8]


储备池计算已经被用于时间序列分析。特别是在混沌时间序列预测[9][10]、混沌信号分离,[11]、网络动力学链路推理等方面的应用。[12]


经典的储备池计算

储备池

储备池计算中的“储备池”是这个计算机的内部结构,必须具有两个特性: 第一个特性是必须由多个独立的的非线性单元组成,第二个特性是必须能够存储信息。非线性特性描述了每个单元对输入的响应,这使得储备池计算机能够解决复杂的问题。储备池能够通过循环回路中的每个单元的连接来储存信息,其中上一个输入影响下一个响应。响应的历史变化允许计算机被训练来完成特定的任务。[13]


储备池可以是虚拟的,也可以是物理实现的。[13]虚拟的储备池通常是随机产生的,设计类似于神经网络。[13][3]它可以设计成具有非线性且具有循环回路,但是,与神经网络不同,单元之间的连接是随机的,并且在整个计算过程中保持不变。[13]由于某些自然系统固有的非线性,物理储备池是可能存在的。水面波纹之间的相互作用包含了储备池的形成所需的非线性动力学,通过电动机输入波纹,然后对读出的波纹进行记录和分析,建立了模式识别 RC(模式识别储备池计算)。[1]

读出层

读出层是神经网络的一个层,它对储备池的输出进行一个线性映射。[1]储备池在已知输入刺激后,通过分析储备池的时空模式,以及利用线性回归或岭回归等训练方法,对读出层的权重进行训练。[1]由于这个实现取决于时空储存器模式,所以读出权重训练的细节是针对每种储备池型量身定制的。[1]例如,使用液态容器作为储备池的储备池计算机,其读出可能需要观察液体表面的时空模式。[1]


类型

上下文混响网络

上下文混响网络是储备池计算的一个早期实例。[14]在这种结构中,一个输入层将信号输入到一个高维动力系统中,这个高维动力系统中的信息由一个可训练的单层感知器读出。有两种类型的动力学系统: 其中一种是将随机权重固定的递归神经网络,另一种动力学系统是受 Alan Turing 的形态发生模型启发的连续反应扩散系统。在可训练层,感知器将当前输入与在动力学系统中回响的信号联系起来,这个在动力学系统中回响的信号被认为是为输入提供的一个动力学的“上下文”。用后来的工作的术语来讲,反应扩散系统就相当于储备池库。


回声状态网络

树状回声状态网络 The Tree Echo State Network (TreeESN)模型代表了储备池计算框架向树状结构数据的推广。[15]


混沌液体状态机

一个混沌液体状态机 Chaotic Liquid State Machine (CLSM)中的液态(比如储备池)或者混沌储备池[16][17],是由混沌脉冲神经元构成,但它们通过确立一个描述机器的被训练的输入的单一假设来稳定其活动。这与通常不稳定类型的储备池形成了鲜明的对比。液态稳定化是通过突触可塑性以及管理着液态内部的神经连接的混沌控制来实现的。CLSM 在学习敏感时间序列数据方面取得了良好的效果。[16][17]


非线性瞬态计算

当依赖时间的输入信号从这种储备池机制的内部动态性分离开来时,信息处理是最有效的。[18]这些偏离引起瞬态或暂时的变化,这些变化在设备的输出中得到了体现。[18]


深度储备池计算

随着深度储备池计算和深度回波状态网络 the Deep Echo State Network (DeepESN)模型[19][20][21][22]的出现,储备池计算框架开始向深度学习扩展,发展了有效的可训练模型来对时间数据进行多层次处理,同时使层状组合在循环神经网络中的固有作用的研究得以进行。


量子储备池计算

量子储备池计算可以利用量子力学相互作用的非线性本质或过程来形成具有特征的非线性储备池[5][6][23][8],也可以利用线性储备池来实现,即向储备池注入输入来产生非线性。[24]机器学习和量子设备的结合,引出了一个新的研究领域——量子神经形态计算。[25]


类型

相互作用的量子谐振子的高斯态

高斯态是连续变量量子系统的一类典型态。尽管它们现在可以在最先进的光学平台上创建和操作,这些平台对去相干具有天然的鲁棒性[26],但众所周知,它们对于通用量子计算来说是不够的,因为保持状态的高斯性质的变换是线性的。[27]正常情况下,线性动力学也不足以进行非平凡的储层计算。然而,通过考虑一个由相互作用的量子谐振子组成的网络,并通过周期性的振子子集的状态重置注入输入,可以将这种动力学应用于储备池计算目的。选择一个合适的振荡器子集的状态如何取决于输入,其余振荡器的观测量可以成为非线性函数的输入适合于储备池计算; 事实上,由于这些函数的性质,甚至通用储备池计算成为可能,通过结合观测量和一个多项式读出函数。[24]原则上,这种储备池计算机可以通过受控的多模光学参量过程实现[28],但是从系统中有效地提取输出是一个挑战,特别是在必须考虑测量反作用的量子体制中。


2-D 量子点格子

在这种结构中,格点之间的随机耦合赋予了储备池处理器固有的“黑盒”属性。[5]然后通过一个入射光场激发储存器,作为输入。读出以格点的职业数的形式出现,这是输入的自然非线性函数。[5]


分子固体中的核自旋

分子固体中的核自旋在这种结构中,分子固体中相邻原子自旋之间的量子力学耦合提供了创造高维计算空间所需的非线性。[6]然后,该储备池被调谐到相关核自旋共振频率的射频电磁辐射所激发。通过测量原子核的自旋态就可以读出数据。[6]


基于门的近期超导量子计算机上的储备池计算

量子计算最流行的模型是基于门的模型,量子计算是通过量子计算机量子比特上的幺正量子门顺序应用来执行的。[29]在基于栅极的量子计算机上实现储备池计算的理论,并在 IBM 超导带噪中级量子计算机(NISQ)[30]上进行了原理论证。[8]


另见


参考文献

  1. 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 Tanaka, Gouhei; Yamane, Toshiyuki; Héroux, Jean Benoit; Nakane, Ryosho; Kanazawa, Naoki; Takeda, Seiji; Numata, Hidetoshi; Nakano, Daiju; Hirose, Akira (2019). "Recent advances in physical reservoir computing: A review". Neural Networks. 115: 100–123. doi:10.1016/j.neunet.2019.03.005. ISSN 0893-6080. PMID 30981085.
  2. Röhm, André; Lüdge, Kathy (2018-08-03). "Multiplexed networks: reservoir computing with virtual and real nodes". Journal of Physics Communications. 2 (8): 085007. Bibcode:2018JPhCo...2h5007R. doi:10.1088/2399-6528/aad56d. ISSN 2399-6528.
  3. 3.0 3.1 3.2 3.3 3.4 Schrauwen, Benjamin, David Verstraeten, and Jan Van Campenhout. "An overview of reservoir computing: theory, applications, and implementations." Proceedings of the European Symposium on Artificial Neural Networks ESANN 2007, pp. 471–482.
  4. Fernando, C.; Sojakka, Sampsa (2003). "Pattern Recognition in a Bucket". Advances in Artificial Life. Lecture Notes in Computer Science. 2801. pp. 588–597. doi:10.1007/978-3-540-39432-7_63. ISBN 978-3-540-20057-4. https://www.semanticscholar.org/paper/Pattern-Recognition-in-a-Bucket-Fernando-Sojakka/af342af4d0e674aef3bced5fd90875c6f2e04abc. 
  5. 5.0 5.1 5.2 5.3 5.4 Ghosh, Sanjib; Opala, Andrzej; Matuszewski, Michał; Paterek, Tomasz; Liew, Timothy C. H. (December 2019). "Quantum reservoir processing". NPJ Quantum Information. 5 (1): 35. arXiv:1811.10335. Bibcode:2019npjQI...5...35G. doi:10.1038/s41534-019-0149-8. ISSN 2056-6387. S2CID 119197635.
  6. 6.0 6.1 6.2 6.3 6.4 6.5 6.6 Negoro, Makoto; Mitarai, Kosuke; Fujii, Keisuke; Nakajima, Kohei; Kitagawa, Masahiro (2018-06-28). "Machine learning with controllable quantum dynamics of a nuclear spin ensemble in a solid". arXiv:1806.10910 [quant-ph].
  7. Rahimi, Ali; Recht, Benjamin (December 2008). "Weighted Sums of Random Kitchen Sinks: Replacing minimization with randomization in Learning" (PDF). NIPS'08: Proceedings of the 21st International Conference on Neural Information Processing Systems: 1313–1320.
  8. 8.0 8.1 8.2 Chen, Jiayin; Nurdin, Hendra; Yamamoto, Naoki (2020-08-24). "Temporal Information Processing on Noisy Quantum Computers". Physical Review Applied. 14 (2): 024065. arXiv:2001.09498. Bibcode:2020PhRvP..14b4065C. doi:10.1103/PhysRevApplied.14.024065. S2CID 210920543.
  9. Pathak, Jaideep; Hunt, Brian; Girvan, Michelle; Lu, Zhixin; Ott, Edward (2018-01-12). "Model-Free Prediction of Large Spatiotemporally Chaotic Systems from Data: A Reservoir Computing Approach". Physical Review Letters. 120 (2): 024102. Bibcode:2018PhRvL.120b4102P. doi:10.1103/PhysRevLett.120.024102. PMID 29376715.
  10. Vlachas, P.R.; Pathak, J.; Hunt, B.R.; Sapsis, T.P.; Girvan, M.; Ott, E.; Koumoutsakos, P. (2020-03-21). "Backpropagation algorithms and Reservoir Computing in Recurrent Neural Networks for the forecasting of complex spatiotemporal dynamics". Neural Networks. 126: 191–217. arXiv:1910.05266. doi:10.1016/j.neunet.2020.02.016. ISSN 0893-6080. PMID 32248008. S2CID 211146609.
  11. Krishnagopal, Sanjukta; Girvan, Michelle; Ott, Edward; Hunt, Brian R. (2020-02-01). "Separation of chaotic signals by reservoir computing". Chaos: An Interdisciplinary Journal of Nonlinear Science. 30 (2): 023123. arXiv:1910.10080. Bibcode:2020Chaos..30b3123K. doi:10.1063/1.5132766. ISSN 1054-1500. PMID 32113243. S2CID 204823815.
  12. Banerjee, Amitava; Hart, Joseph D.; Roy, Rajarshi; Ott, Edward (2021-07-20). "Machine Learning Link Inference of Noisy Delay-Coupled Networks with Optoelectronic Experimental Tests". Physical Review X. 11 (3): 031014. arXiv:2010.15289. Bibcode:2021PhRvX..11c1014B. doi:10.1103/PhysRevX.11.031014.
  13. 13.0 13.1 13.2 13.3 Soriano, Miguel C. (2017-02-06). "Viewpoint: Reservoir Computing Speeds Up". Physics (in English). 10. doi:10.1103/Physics.10.12.
  14. Kirby, Kevin. "Context dynamics in neural sequential learning." Proceedings of the Florida Artificial Intelligence Research Symposium FLAIRS (1991), 66–70.
  15. Gallicchio, Claudio; Micheli, Alessio (2013). "Tree Echo State Networks". Neurocomputing. 101: 319–337. doi:10.1016/j.neucom.2012.08.017. hdl:11568/158480.
  16. 16.0 16.1 Aoun, Mario Antoine; Boukadoum, Mounir (2014). "Learning algorithm and neurocomputing architecture for NDS Neurons". 2014 IEEE 13th International Conference on Cognitive Informatics and Cognitive Computing. IEEE: 126–132. doi:10.1109/icci-cc.2014.6921451. ISBN 978-1-4799-6081-1. S2CID 16026952.
  17. 17.0 17.1 Aoun, Mario Antoine; Boukadoum, Mounir (2015). "Chaotic Liquid State Machine". International Journal of Cognitive Informatics and Natural Intelligence. 9 (4): 1–20. doi:10.4018/ijcini.2015100101. ISSN 1557-3958.
  18. 18.0 18.1 Crook, Nigel (2007). "Nonlinear Transient Computation". Neurocomputing. 70 (7–9): 1167–1176. doi:10.1016/j.neucom.2006.10.148.
  19. Pedrelli, Luca (2019). Deep Reservoir Computing: A Novel Class of Deep Recurrent Neural Networks (PhD thesis). Università di Pisa.
  20. Gallicchio, Claudio; Micheli, Alessio; Pedrelli, Luca (2017-12-13). "Deep reservoir computing: A critical experimental analysis". Neurocomputing. 268: 87–99. doi:10.1016/j.neucom.2016.12.089. hdl:11568/851934.
  21. Gallicchio, Claudio; Micheli, Alessio (2017-05-05). "Echo State Property of Deep Reservoir Computing Networks". Cognitive Computation. 9 (3): 337–350. doi:10.1007/s12559-017-9461-9. hdl:11568/851932. ISSN 1866-9956. S2CID 1077549.
  22. Gallicchio, Claudio; Micheli, Alessio; Pedrelli, Luca (December 2018). "Design of deep echo state networks". Neural Networks. 108: 33–47. doi:10.1016/j.neunet.2018.08.002. hdl:11568/939082. ISSN 0893-6080. PMID 30138751. S2CID 52075702.
  23. Chen, Jiayin; Nurdin, Hendra (2019-05-15). "Learning nonlinear input–output maps with dissipative quantum systems". Quantum Information Processing. 18 (7): 198. arXiv:1901.01653. Bibcode:2019QuIP...18..198C. doi:10.1007/s11128-019-2311-9. S2CID 57573677.
  24. 24.0 24.1 Nokkala, Johannes; Martínez-Peña, Rodrigo; Giorgi, Gian Luca; Parigi, Valentina; Soriano, Miguel C.; Zambrini, Roberta (2021). "Gaussian states of continuous-variable quantum systems provide universal and versatile reservoir computing". Communications Physics. 4 (1): 53. arXiv:2006.04821. Bibcode:2021CmPhy...4...53N. doi:10.1038/s42005-021-00556-w. S2CID 234355683.
  25. Marković, Danijela; Grollier, Julie (2020-10-13). "Quantum Neuromorphic Computing". Applied Physics Letters. 117 (15): 150501. arXiv:2006.15111. Bibcode:2020ApPhL.117o0501M. doi:10.1063/5.0020014. S2CID 210920543.
  26. Roslund, Jonathan; de Araújo, Renné Medeiros; Jiang, Shifeng; Fabre, Claude; Treps, Nicolas (2013-12-15). "Wavelength-multiplexed quantum networks with ultrafast frequency combs". Nature Photonics (in English). 8 (2): 109–112. arXiv:1307.1216. doi:10.1038/nphoton.2013.340. ISSN 1749-4893. S2CID 2328402.
  27. Bartlett, Stephen D.; Sanders, Barry C.; Braunstein, Samuel L.; Nemoto, Kae (2002-02-14). "Efficient Classical Simulation of Continuous Variable Quantum Information Processes". Physical Review Letters. 88 (9): 097904. arXiv:quant-ph/0109047. Bibcode:2002PhRvL..88i7904B. doi:10.1103/PhysRevLett.88.097904. PMID 11864057. S2CID 2161585.
  28. Nokkala, J.; Arzani, F.; Galve, F.; Zambrini, R.; Maniscalco, S.; Piilo, J.; Treps, N.; Parigi, V. (2018-05-09). "Reconfigurable optical implementation of quantum complex networks". New Journal of Physics (in English). 20 (5): 053024. arXiv:1708.08726. Bibcode:2018NJPh...20e3024N. doi:10.1088/1367-2630/aabc77. ISSN 1367-2630. S2CID 119091176.
  29. Nielsen, Michael; Chuang, Isaac (2010), Quantum Computation and Quantum Information (2 ed.), Cambridge University Press Cambridge
  30. John Preskill. "Quantum Computing in the NISQ era and beyond." Quantum 2,79 (2018)


进一步阅读


集智推荐

集智课程

循环神经网络的动力学平均场理论

该读书会将从经典的最简单的随机神经网络中的混沌开始,介绍统计场论在分析该问题中发挥的关键作用,然后利用统计场论进一步讨论真实大脑脉冲发放数据中隐含的网络临界状态,并探讨该状态在计算功能中发挥的关键作用及其机制。


分享大纲

  • 成对脉冲关联的宽分布;
  • 神经活动元统计的平均场理论--系综下的一般性模型;
  • 循环神经网络的动力学平均场理论;
  • 混沌边缘在机器学习中的应用


神经网络(Neural Network)

作为一门人工智能课程,本节课程,我们终于来到神经网络部分。在这一节中,从一个历史发展的角度去看待神经网络,从 1943 年最早提出的感知机模型讲起,分析其局限性,说明引入多层神经网络的必要性,以及经典的 BP 算法。最后从一个实际案例出发,讲解真实场景下,用人工神经网络做预测时,会用到的问题和处理方法。


课程大纲

  • 人工神经网络的工作原理
  • 感知机的局限性
  • 多层神经网络的必要性
  • 梯度反传算法
  • 如何用人工神经网络来做预测
  • 数据处理方法:类型变量、归一化、分批次训练
  • 如何分析一个训练好的人工神经网络



本中文词条由周昌松老师提供,由神经动力学模型读书会词条梳理志愿者1210080212翻译,薄荷编辑,如有问题,欢迎在讨论页面留言。


本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。