第14行: |
第14行: |
| | | |
| 这里提出的帮助使用信息论分析DNN因果结构的工具应该有助于解决该领域的另一个核心问题,即大型参数化通常会使DNN成为具有数百万微调权重的“黑匣子”,这些权重可以实现成功的性能,但在其操作和功能中是无法穿透的(Gunning,2017)。缺乏可解释性可能会掩盖其他问题,如数据集(Alvi等人,2018)或模型选择(Mignan和Broccardo,2019)中的偏见,对于那些想使用DNN做出生死决定的人来说是一个严重的问题,例如在自动驾驶汽车(Bojarski等人,2016)、自动驾驶无人机(Floreano和Wood,2015)或医疗诊断(Shin等人,2016年)的情况下。使用这套技术,研究人员将能够在训练过程中直接观察DNN的整体因果结构发生变化的过程,这是打开“黑匣子”和了解DNN中的作用的关键一步。 | | 这里提出的帮助使用信息论分析DNN因果结构的工具应该有助于解决该领域的另一个核心问题,即大型参数化通常会使DNN成为具有数百万微调权重的“黑匣子”,这些权重可以实现成功的性能,但在其操作和功能中是无法穿透的(Gunning,2017)。缺乏可解释性可能会掩盖其他问题,如数据集(Alvi等人,2018)或模型选择(Mignan和Broccardo,2019)中的偏见,对于那些想使用DNN做出生死决定的人来说是一个严重的问题,例如在自动驾驶汽车(Bojarski等人,2016)、自动驾驶无人机(Floreano和Wood,2015)或医疗诊断(Shin等人,2016年)的情况下。使用这套技术,研究人员将能够在训练过程中直接观察DNN的整体因果结构发生变化的过程,这是打开“黑匣子”和了解DNN中的作用的关键一步。 |
| + | |
| + | =量化DNN的因果结构= |
| + | |
| + | 干预(也称为“扰动”)揭示了因果关系。前馈DNN的因果关系集(也称为“因果结构”)由层、它们各自的连接和节点的激活函数组成。我们介绍了一些工具来探索这样一个假设,即DNN的泛化能力取决于它们的因果结构如何区分以适应它们所训练的任务(所有代码都是公开的,请参阅此处的假设)。 |
| + | |
| + | 为了研究这个问题,我们使用了一种广泛用于研究因果关系的正式方法,其中干预被表示为ado(x)算子的应用(Pearl,2000)。Thedo(x)通常用于将给定系统中的单个变量(如有向无环图)设置为特定值(例如,它以前曾被用于在DNN中应用单个干预(Harradon等人,2018;Narendra等人,2018))。为了对DNN层的完整因果结构进行分析理解,我们在这里引入了干预分布ID的使用,而不是跟踪个体干预,ID是do(x)算子上的概率分布。它们只是对一组干预措施的数学描述。在层的输入上应用ID会导致下游输出(theED)的一些效应分布(Hoel,2017)。 |
| + | |
| + | 因果关系的信息量可以通过使用ID的信息论来衡量。更多的信息因果关系更强。在这里,我们使用有效信息(EI)来量化和检查一个层的因果结构,有效信息是衡量因果关系信息含量的指标。具体来说,当ID=Hmax,即最大熵分布时,EI是干预和效果之间的相互信息I(ID,ED)。更简单地说,EI是以随机化形式注入噪声后的互信息(MI)。 图1:EI是权重和连接性的函数。图(a-c)显示了EIvs。使用sigmoid、tanh和ReLU激活函数,使用8、16、32和64个区间计算单个输入和输出神经元的权重。标记的是用于传输每个激活函数的一组扰动的最有信息量的权重(单独)。图(d-f)显示了具有两个输入节点a和一个输出节点C的层的EI。不同的激活函数具有不同的特征。 |
| + | |
| + | 然而,与作为相关性度量的标准MI不同(Shannon,1948),所有具有噪声注入的相互比特都必然是由该噪声引起的。此外,作为信息量最大的干预(就其熵而言),EI表示变量随机化产生的信息,这是科学解释的金标准(Fisher,1936)。它可以被认为是衡量函数的图像在多大程度上可以用于恢复预图像,并且与Kolmogorov复杂性和VC熵有重要关系(Bal-duzzi,2011)。最值得注意的是,之前的研究表明,EI反映了因果关系的重要属性,捕捉了因果关系有多信息,例如它们的决定论(缺乏噪声)或简并性(缺乏唯一性)(Hoel等人,2013)。 |
| + | 首先,我们介绍了一种测量DNN中层间连接性的EIf的方法,捕捉一层对另一层的总联合效应。因此,我们从L1开始,L1是一组与L2有加权前馈连接的节点,我们假设所有节点都有一些激活函数,如sigmoid函数。为了测量EI,L1在最大熵do(L1=Hmax)处受到扰动,这意味着节点的所有激活都被迫进入随机选择的状态。L1=H最大限度地放大了L1中所有节点的同时和独立的最大熵扰动: |
| + | 公式 |
| + | 也就是说,在L1=Hmax的条件下,通过测量L1和L2的关节状态之间的互信息来进行计算。 |
| + | |
| + | EI可跨不同的常用激活函数进行扩展。图1a-c显示了两个节点a和B之间的单条边的EI,其中a→B的权重逐渐增加,每个面板显示了不同的激活函数(sigmoid、tanh、ReLU)。我们可以看到,对于每个具有给定激活函数的孤立边,都存在一条依赖于来自AtoB的连接权重的特征isticEIcurve,并且这条曲线的形状与所选的箱数(8、16、32和64)无关。在低权重下,EI表明B对a中的扰动不敏感,尽管这种敏感性在所有三个激活函数中都达到了峰值。然后,当权重饱和激活函数时,曲线会衰减,使B对A的扰动敏感。 |
| + | |
| + | 请注意,特征峰值揭示了哪些权重代表(孤立考虑的连接)的强因果关系。例如,一个sigmoid激活函数在等于欧拉数的aweight处具有最具信息量的因果关系,一个tanh激活函数在权重coth(1)处具有信息量,一个ReLU激活函数在重量1处具有信息力。这表明DNN中最重要的权重可能是最具因果效力的,而不是绝对值最高的。例如,对于sigmoid激活函数和连接A→B的极高权重,A的激活对扰动的信息量不大,因为大多数扰动都会导致B的输出在1处饱和。 图2:在三次不同的跑步训练中,EIand是如何演变的。值得注意的是,在Iris训练网络(顶部)和MNIST训练网络(底部)的损失函数最大幅度降低期间,EI发生了最大的变化。 |
| + | |
| + | 在多个连接的情况下,EI曲线成为更高维度的EI歧管。图1d-f显示了由两个节点(A、B)组成的层的EI(A,B→C),每个节点都与C有一个连接。由于扰动会相互干扰,EI不仅取决于节点之间关系的敏感性,还取决于网络连接的重叠或通用性,从而形成流形。例如,在sigmoid激活函数中,EI流形大约是2倍对称的,这是由于sigmoid在正负权重周围的对称性,再加上网络本身的对称性(因为神经元A和Bony都连接到C)。 |
| + | |
| + | 请注意,虽然区间的数量决定了曲线的幅度,但它们之间的上升/下降行为是一致的,这表明只要区间大小固定在某个选定的值,比率和行为就会保持不变(图1对a-c使用30000个时间步长进行噪声注入,对d-f使用100000个样本)。如果噪声注入足够长并且箱大小足够高,则DNN层的EI值倾向于收敛到特定值。这可以在SI第1节中找到证据。 |
| + | |
| + | 然而,首先,我们评估了在常见机器学习任务的训练网络过程中,EI的变化是如何发生的。 |
| + | |
| + | =训练过程中因果结构的变化= |
| + | |
| + | 为了了解DNN的因果结构在学习过程中是如何变化的,我们跟踪了用两个基准分类任务训练的EIin网络:Iris(Fisher,1936)和MNIST-LeCun等人(2010)。对于Iris,我们训练了具有三个密集连接层4→5→5→3的网络,对于MNIST,我们使用了具有四个紧密连接层25→6→6→5的网络,使用sigmoid激活函数,并且两个任务都没有偏差。对于MNIST,我们将输入从28x28整形为5x5,并从数据集中删除了数字5-9的示例,这样最后一层只有5个节点——这是为了降低准确计算EI的计算成本。这两个任务的网络都用MSE损失和香草梯度下降训练,学习率为0.01。我们训练了批量大小为10的Irisnetworks 4000个epoch和批量大小为50的MNIST网络500个epoch。我们通过从均匀分布Wi-j=U([-1√fanin,1√fanin])中采样来初始化权重。对于每个任务和体系结构,我们执行三次具有不同初始化的运行。使用相同的网络架构,我们还训练了具有tanh和ReLU激活函数的网络——结果可以在SI第7.2节中找到。为了计算EI,我们使用107个样本的固定噪声注入长度。我们发现,在我们的网络中,注入这个长度就足以确保收敛(见SI第7.1节)。然而,请注意,更宽的网络层可能需要更多的样本。 图3:EI由灵敏度和简并性组成。上述曲面是具有两个输入节点和一个输出节点的alayer的灵敏度和简并性,具有sigmoid激活函数。从表面(a)中减去表面(b)得到EImanifold,如(c)所示 |
| + | 从定性上讲,我们观察到,EI的最大变化与训练过程中损失曲线的最陡部分显著匹配,并且在最大学习期间,EI通常是动态的(如图2所示)。在训练性能与测试性能分离的过拟合期间,EI在所有层上通常都是平坦的,这表明在网络适当拟合后,因果结构中的信息在此期间没有变化。 |
| + | |
| + | =因果平面中的深度神经网络= |
| + | |
| + | 如第2节所述,EI取决于连接的权重及其重叠程度,这两者共同构成了EI流形。这表明,EI可以分解为两个属性:由个体权重表示的因果关系的敏感性,以及由于输入权重重叠而导致的这些关系的通用性。这反映了之前将EIin布尔网络或马尔可夫链分解为确定性(这里用灵敏度代替,因为神经网络传统上是确定性的)和简并性(Hoel等人,2013;Klein和Hoel,2020)。 |
| + | 在DNN中,层的灵敏度衡量输入将扰动传输到输出节点的程度,而层的简并性衡量通过检查层输出可以重建输入扰动源的程度。如果扰动源不能很好地重建,则网络被称为扰动。这两个维度的因果关系共同构成了一个所有DNN层都占据的“因果平面”。随着层通过学习而不同,它们的因果结构应该在因果平面中占据独特的位置,反映出它们通过变得更敏感或更退化而对DNN功能的贡献。 |
| + | 为了确定DNN层在因果平面中的位置或轨迹,根据EI的分量明确计算灵敏度和衰减。在参数之间没有相互作用的情况下,通过将每条边的总贡献单独相加来计算灵敏度。因此,层L1到下一层L2的总灵敏度为: |
| + | 公式 |
| + | 这与计算每个(i,j)对的EI相同,但独立于网络的其他部分。请注意,在每个节点只接收一个唯一输入(即没有重叠)的层中,灵敏度等于EI。 |
| + | 层的简并性衡量因果关系中有多少信息因重叠连接而丢失,并通过代数方法计算其灵敏度-EI,因为灵敏度衡量网络中非重叠连接的信息贡献。图3显示了具有不同连接权重的两个输入节点和一个输出节点(具有S形激活)的层的本质性和简并流形。它们之间的差异形成了EI流形。 |
| + | 一层的简并性衡量因果关系中有多少信息因重叠连接而丢失,并通过代数方法计算其增敏性-EI,增敏性衡量网络中非重叠连接的信息贡献。图3显示了具有不同连接权重的两个输入节点和一个输出节点(具有S形激活)的层的增敏性和简并流形。它们之间的差异形成了EI歧管。 |
| + | 之前对图的EI(基于随机游走动力学)的研究已经找到了一种对不同规范网络进行分类的方法,如Erd̋os-Rényi随机图、无标度网络和轮辐模型,基于它们在随机游走的决定论和简并性方面的位置(Klein和Hoel,2020)。在DNN中,一个敏感术语取代了决定论。 |
| + | 为了可视化灵敏度和简并性之间的层偏移,我们引入了DNN的“因果平面”,其中平面的二维表示两个相应的值。因果平面利用了这样一个事实,即由于EI=灵敏度−简并,如果两者都等量增加,EI本身就不会改变。当绘制简并性与灵敏度时,y=x线上的点表示零EI,我们将这条45◦的线称为EI的“零点斜率”。更倾向于敏感性的路径会增加EI,更倾向于简并的路径会降低EI,而沿着EI零点的路径不会改变EI。 |
| + | 在这里,我们探讨了这样一个假设,即DNN的内部因果结构会发生变化,以匹配它所训练的任务,并且这会在整个训练过程的特定阶段发生。为了研究这一点,我们在训练过程中测量了Iris和MNIST数据集上通过因果平面的三次运行的路径(如图4a-b所示)。在这两项任务中,对MNIST数字进行分类更为退化和复杂,因为网络必须将高维空间中的流形转换为仅10个不同的输出类(或者更确切地说,对于我们简化的MNIST版本,是5个)。对鸢尾花进行分类的任务既不退化也不复杂,因为网络必须将4维空间转换为3个(大多)线性可分的类。如果一个网络通过将其内部因果结构与数据集进行匹配来学习,那么在MNIST上训练的网络将比在Iris上训练的更大程度上塑造自己。这正是我们在图4中观察到的,在MNIST-训练的网络中,因果平面内的差异和运动要大得多,而Iris训练的网络的因果结构中的差异较小,因为它遵循EI零点律。在许多情况下,特别是对于隐藏层和输出层,运行首先表现出灵敏度的增加(增加EI),然后表现出简并性的增加(降低EI)。 |
| + | 为了检验层的因果结构在训练过程中必然会发生差异的假设,对具有sigmoid激活函数的MNIST训练网络进行了两种修改:一种情况下删除了隐藏层,另一种情况是添加了许多冗余的隐藏层(图4c-d)。网络的两个修改都与之前的网络一样准确。在因果平面上,添加的冗余层几乎没有变化,表明在训练过程中对EI的净贡献为零(有关电影,请参阅GitHub)。这显示了与更动态的层相比,对网络因果结构没有贡献的冗余层如何沿着EI零点聚集并且移动很少。 |
| + | |
| + | =测量层间连通性的联合效应= |
| + | |
| + | 综合信息理论(IIT)已被用于评估系统中联合效应与独立效应所包含的总信息(Tononi,2008)。它是因果分析的有用工具,分析网络因果结构中整合的信息量(Marshall等人,2017;Albantakis等人,2019)。以前,综合信息被衡量为给定分区的EI损失(Balduzzi和Tononi,2008),使EI成为综合信息的上限。然而,目前还没有一种公认的通用综合信息衡量标准(Oizumi等人,20142016)。相反,在不同的系统中提出了各种集成信息的措施(Tegmark,2016;Mediano等人,2019)。传统上,前馈网络中的集成信息量为零,因为没有可重入连接,因为它基于在系统的所有可能子集中找到最小信息分区。然而,即使在前馈网络中,一层的节点仍然可能对另一层产生不可约的联合效应,因此我们引入了一种度量,即前馈集成信息,应用于DNN。 图4:训练期间因果平面上的行为。在不同层次的因果平面上追踪的路径。在过拟合期间,所有路径随着时间的推移都会变得不那么平滑,在因果平面上的移动也会减少。与在MNIST任务上训练的网络相比,在更简单的Iris任务中训练的网络在层之间的差异更小。 |
| + | 通常,计算集成信息需要检查所有可能分区的集合,这使得这种方法不适用于维数较小的系统。或者,为了评估单个边对EI的协同贡献,可能需要使用多变量信息理论,例如部分信息分解,当包含源时,它会按照Dedekind数的顺序增长(WilliamsandBeer,20 |
| + | 为了避免这些问题,我们引入了一种基于每条边的贡献计算的度量方法EIparts。也就是说,对于每个节点i∈L1,记录其在该扰动下的激活函数的时间序列估计,以及每个节点j∈L2的激活函数。为了计算EI部分,然后将每个节点的每个单独的时间序列离散为一些共享的选定bin大小,并计算和求和每个(i,j)对的MI:10)。 |
| + | 请注意,对于具有单个节点的层,EI和EI部分是相同的。当网络的每个节点只接收单个边缘时,情况也是如此。然而,EIparts措施必然会错过某些积极的联合效应。重要的是,EI和EIparts度量之间的差异可以捕捉到联合效应的量,从而捕捉到逐层以前馈方式整合的信息量。具体来说,我们将EI(综合信息的上限)与第3节中定义的EIparts进行比较,即φf eed f orward=EI−EIparts。应该指出的是,向前的φf虽然旨在捕捉一层到另一层的总联合效应,但不受零的限制,可以是负的。 |
| + | 为了了解DNN训练过程中层间联合效应的变化,我们分析了Iris和MNIST数据集训练过程中φf的前向变化(有关我们测量EIparts的方法的详细信息,请参阅SI第7.1节)。我们观察到,MNIST训练的网络比Iris训练的网络具有更高的φf前馈,这表明因果结构确实根据任务的复杂性而有所不同,需要更多的联合效应来学习(图5)。 图5:培训中的综合信息。MNIST训练的网络在训练过程中比IRIS训练的网络发展得更快。 |
| + | |
| + | =讨论= |
| + | |
| + | 在这里,我们引入了信息论技术,根据扰动后的信息流对DNN的因果结构进行分类和量化。这些技术是围绕有效信息(EI)构建的,我们将其应用于DNN。它被定义为在一组最大熵扰动之后的互信息,它揭示了层因果结构中包含的信息。对于在Iris和MNIST任务上训练的网络,EI在训练期间发生了变化,特别是在实际发生学习时(如损失函数中的阶跃变化所反映的)。 |
| + | EI取决于网络的灵敏度和简并性。两个节点之间的灵敏度反映了孤立因果关系的强度,并在不同激活函数的特定特征权重处达到峰值(例如,在sigmoid激活函数中,它达到峰值)。层的退化反映了由于边缘权重的重叠,上游扰动的下游重建的困难。分析EI揭示了网络在灵敏度/简并空间上的位置,我们称之为“因果平面”。将网络架构放置在这个平面上的能力意味着我们可以跟踪任何给定的DNN的因果结构在训练过程中如何在空间中演变。我们的结果表明,DNN的因果结构反映了它所训练的任务。例如,在MNIST任务中,DNN因果结构中的不同层有一个明确的任务,这反映在每一层在因果平面上的不同轨迹上,添加新的冗余层不会对EI产生影响,因此不会向因果结构添加新的信息。 |
| + | 这些技术提供了一种与信息瓶颈研究不同的方法(Tishby和Zaslavsky,2015),后者侧重于使用互信息来衡量输入和节点活动之间的相关性。这两种方法都有类似的目标来解释DNN的泛化性,并且都有形式上的相似之处,尽管这里的重点是逐层因果结构本身,而不是DNN的输入。未来,这项工作可以扩展到这里考虑的三种激活函数之外的不同激活函数(Karlik和Olgac,2011;Nair和Hinton,2010)、无监督任务(Wiskott和Sejnowski,2002)、LSTM等循环神经网络(Hochreiter和Schmidhuber,1997)和卷积神经网络(Krizhevsky等人,2012)。 |
| + | 这些技术开辟了评估EI分解和扩展的可能性,例如DNN的集成信息(因为集成信息可以使用网络子集之间的最小EI来计算(Tononi和Sporns,2003),集成信息也可以分解为类似于灵敏度和简并性的属性(Hoel等人,2016)。这里,概述了一种综合信息的度量方法φf forward,用于度量前馈层连通性中的不可约联合效应。 |
| + | 所有这些可能有助于理解为什么某些网络架构具有普遍性,为什么有些没有。未来,这些技术也为直接测量DNN中的个别因果关系提供了可能性(Albantakis等人,2019)。 |