更改

添加328字节 、 2024年10月13日 (星期日)
无编辑摘要
第1行: 第1行:  
[[文件:Singular-Value-Decomposition.svg.png|无框|右|奇异值分解]]
 
[[文件:Singular-Value-Decomposition.svg.png|无框|右|奇异值分解]]
   −
在线性代数中,'''<font color="#ff8000">奇异值分解 Singular value decomposition</font>'''是一种通过旋转、缩放和再次旋转来因式分解[['''实矩阵 real matrix ''']]或'''复矩阵 complex matrix '''的方法。它把具有'''正交特征基 orthonormal eigenbasis '''的方阵'''特征分解 eigendecomposition '''推广到任意 <math>m \times n</math> 矩阵,并与'''极分解 polar decomposition '''密切相关。
+
在线性代数中,'''<font color="#ff8000">奇异值分解 Singular value decomposition</font>'''是一种通过旋转、缩放和再次旋转来因式分解[['''实矩阵 real matrix ''']]或[['''复矩阵 complex matrix ''']]的方法。它把具有[['''正交特征基 orthonormal eigenbasis ''']]的方阵[['''特征分解 eigendecomposition ''']]推广到任意 <math>m \times n</math> 矩阵,并与[['''极分解 polar decomposition ''']]密切相关。
   −
具体而言,我们可以将一个 <math>m \times n</math> 复矩阵 <math>\mathbf{M}</math> 分解为 <math>\mathbf{M} = \mathbf{U\Sigma V^*}</math>。这里,<math>\mathbf{U}</math> 是 <math>m \times m</math> '''复酉矩阵 complex unitary matrix ''',<math>\mathbf{\Sigma}</math> 是 <math>m \times n</math> '''矩形对角矩阵 rectangular diagonal matrix ''',其对角线元素为非负实数,<math>\mathbf{V}</math> 是 <math>n \times n</math> 复酉矩阵,而 <math>\mathbf{V}^*</math> 是 <math>\mathbf{V}</math> 的'''共轭转置 conjugate transpose '''。这种分解适用于任何复矩阵。若 <math>\mathbf{M}</math> 为实矩阵,则 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 必为实'''正交矩阵 real orthogonal matrices ''';此时,我们通常将SVD表示为 <math>\mathbf{M} = \mathbf{U\Sigma V}^{\mathrm{T}}</math>。
+
具体而言,我们可以将一个 <math>m \times n</math> 复矩阵 <math>\mathbf{M}</math> 分解为 <math>\mathbf{M} = \mathbf{U\Sigma V^*}</math>。这里,<math>\mathbf{U}</math> 是 <math>m \times m</math>[[ '''复酉矩阵 complex unitary matrix ''']],<math>\mathbf{\Sigma}</math> 是 <math>m \times n</math>[[ '''矩形对角矩阵 rectangular diagonal matrix ''']],其对角线元素为非负实数,<math>\mathbf{V}</math> 是 <math>n \times n</math> 复酉矩阵,而 <math>\mathbf{V}^*</math> 是 <math>\mathbf{V}</math> 的[['''共轭转置 conjugate transpose ''']]。这种分解适用于任何复矩阵。若 <math>\mathbf{M}</math> 为实矩阵,则 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 必为实[['''正交矩阵 real orthogonal matrices ''']];此时,我们通常将SVD表示为 <math>\mathbf{M} = \mathbf{U\Sigma V}^{\mathrm{T}}</math>。
   −
<math>\mathbf{\Sigma}</math> 的对角元素 <math>\sigma_i = \Sigma_{ii}</math> 由 <math>\mathbf{M}</math> 唯一确定,称为 <math>\mathbf{M}</math> 的奇异值。非零奇异值的数量等于 <math>\mathbf{M}</math> 的'''秩 rank '''。我们把 <math>\mathbf{U}</math> 的列和 <math>\mathbf{V}</math> 的列分别叫做 <math>\mathbf{M}</math> 的左奇异向量和右奇异向量。它们分别构成两组'''正交基 orthonormal bases ''' <math>\mathbf{u}_1, \ldots, \mathbf{u}_m</math> 和 <math>\mathbf{v}_1, \ldots, \mathbf{v}_n</math>。如果我们将值为零的奇异值 <math>\sigma_i</math> 排在最后,奇异值分解可以写成:
+
<math>\mathbf{\Sigma}</math> 的对角元素 <math>\sigma_i = \Sigma_{ii}</math> 由 <math>\mathbf{M}</math> 唯一确定,称为 <math>\mathbf{M}</math> 的奇异值。非零奇异值的数量等于 <math>\mathbf{M}</math> 的[['''秩 rank ''']]。我们把 <math>\mathbf{U}</math> 的列和 <math>\mathbf{V}</math> 的列分别叫做 <math>\mathbf{M}</math> 的左奇异向量和右奇异向量。它们分别构成两组[['''正交基 orthonormal bases ''']] <math>\mathbf{u}_1, \ldots, \mathbf{u}_m</math> 和 <math>\mathbf{v}_1, \ldots, \mathbf{v}_n</math>。如果我们将值为零的奇异值 <math>\sigma_i</math> 排在最后,奇异值分解可以写成:
    
<math>
 
<math>
第17行: 第17行:  
虽然SVD不是唯一的,但我们总能选择让奇异值 <math>\Sigma_{ii}</math> 按降序排列。这样一来,<math>\mathbf{\Sigma}</math>(而非 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math>)就由 <math>\mathbf{M}</math> 唯一确定了。
 
虽然SVD不是唯一的,但我们总能选择让奇异值 <math>\Sigma_{ii}</math> 按降序排列。这样一来,<math>\mathbf{\Sigma}</math>(而非 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math>)就由 <math>\mathbf{M}</math> 唯一确定了。
   −
有时,我们也把SVD称为'''紧凑型SVD compact SVD '''。这是一种类似的分解 <math>\mathbf{M} = \mathbf{U\Sigma V}^*</math>,其中 <math>\mathbf{\Sigma}</math> 是 <math>r \times r</math> 的方形对角矩阵,<math>r \leq \min{m,n}</math> 是 <math>\mathbf{M}</math> 的秩,只包含非零奇异值。在这种变体中,<math>\mathbf{U}</math> 是 <math>m \times r</math> '''半酉矩阵 semi-unitary matrix ''',<math>\mathbf{V}</math> 是 <math>n \times r</math> 半酉矩阵,满足 <math>\mathbf{U}^ \mathbf{U} = \mathbf{V}^ \mathbf{V} = \mathbf{I}_r</math>。
+
有时,我们也把SVD称为[['''紧凑型SVD compact SVD ''']]。这是一种类似的分解 <math>\mathbf{M} = \mathbf{U\Sigma V}^*</math>,其中 <math>\mathbf{\Sigma}</math> 是 <math>r \times r</math> 的方形对角矩阵,<math>r \leq \min{m,n}</math> 是 <math>\mathbf{M}</math> 的秩,只包含非零奇异值。在这种变体中,<math>\mathbf{U}</math> 是 <math>m \times r</math> [['''半酉矩阵 semi-unitary matrix ''']],<math>\mathbf{V}</math> 是 <math>n \times r</math> 半酉矩阵,满足 <math>\mathbf{U}^ \mathbf{U} = \mathbf{V}^ \mathbf{V} = \mathbf{I}_r</math>。
   −
SVD在数学上有多种应用,包括计算'''伪逆 pseudoinverse '''、'''矩阵近似 matrix approximation '''以及确定矩阵的'''秩 rank '''、'''值域 range '''和'''零空间 null space '''。此外,SVD在科学、工程和统计学的各个领域都很有用,比如信号处理、'''数据最小二乘拟合 least squares fitting of data '''和过程控制等。
+
SVD在数学上有多种应用,包括计算[['''伪逆 pseudoinverse ''']][['''矩阵近似 matrix approximation ''']]以及确定矩阵的[['''秩 rank ''']][['''值域 range ''']][['''零空间 null space ''']]。此外,SVD在科学、工程和统计学的各个领域都很有用,比如信号处理、[['''数据最小二乘拟合 least squares fitting of data ''']]和过程控制等。
      第27行: 第27行:  
===旋转、坐标缩放和反射===
 
===旋转、坐标缩放和反射===
   −
特殊情况下,当<math>\mathbf{M}</math>是<math>m \times m</math>的实方阵时,我们可以将矩阵<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>选为实<math>m \times m</math>矩阵。此时,"酉矩阵"和"正交矩阵"实际上是一回事。我们可以将这两个酉矩阵和对角矩阵(这里统称为<math>\mathbf{A}</math>)解读为空间<math>\mathbb{R}^m</math>的'''线性变换 linear transformation'''<math>x \mapsto \mathbf{Ax}</math>。其中,矩阵<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>代表空间的'''旋转 rotations'''或'''反射 reflection''',而<math>\boldsymbol{\Sigma}</math>则表示对每个坐标<math>x_i</math>按因子<math>\sigma_i</math>进行'''缩放 scaling'''。这样,奇异值分解就把<math>\mathbb{R}^m</math>的任何线性变换分解成了三个几何变换的组合:先旋转或反射(<math>\mathbf{V}^*</math>),然后逐坐标缩放(<math>\boldsymbol{\Sigma}</math>),最后再旋转或反射(<math>\mathbf{U}</math>)。
+
特殊情况下,当<math>\mathbf{M}</math>是<math>m \times m</math>的实方阵时,我们可以将矩阵<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>选为实<math>m \times m</math>矩阵。此时,"酉矩阵"和"正交矩阵"实际上是一回事。我们可以将这两个酉矩阵和对角矩阵(这里统称为<math>\mathbf{A}</math>)解读为空间<math>\mathbb{R}^m</math>的[['''线性变换 linear transformation''']]<math>x \mapsto \mathbf{Ax}</math>。其中,矩阵<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>代表空间的[['''旋转 rotations''']][['''反射 reflection''']],而<math>\boldsymbol{\Sigma}</math>则表示对每个坐标<math>x_i</math>按因子<math>\sigma_i</math>进行[['''缩放 scaling''']]。这样,奇异值分解就把<math>\mathbb{R}^m</math>的任何线性变换分解成了三个几何变换的组合:先旋转或反射(<math>\mathbf{V}^*</math>),然后逐坐标缩放(<math>\boldsymbol{\Sigma}</math>),最后再旋转或反射(<math>\mathbf{U}</math>)。
    
特别地,如果<math>\mathbf{M}</math>的行列式为正,我们可以选择<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都带反射或都不带反射。若行列式为负,则只有一个会带反射。若行列式为零,我们可以随意选择每个矩阵的类型。
 
特别地,如果<math>\mathbf{M}</math>的行列式为正,我们可以选择<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都带反射或都不带反射。若行列式为负,则只有一个会带反射。若行列式为零,我们可以随意选择每个矩阵的类型。
第35行: 第35行:  
===奇异值作为椭圆或椭球体的半轴===
 
===奇异值作为椭圆或椭球体的半轴===
   −
如图所示,我们可以将奇异值理解为二维椭圆半轴的长度。这一概念可以推广到<math>n</math>维'''欧几里得空间 Euclidean space''':任何<math>n \times n</math>方阵的奇异值都可以看作<math>n</math>维椭球体半轴的长度。同理,任何<math>m \times n</math>矩阵的奇异值可以视为<math>m</math>维空间中<math>n</math>维椭球体半轴的长度,比如三维空间中(倾斜的)二维平面上的椭圆。奇异值编码了半轴的长度,而奇异向量则编码了方向。详见下文:
+
如图所示,我们可以将奇异值理解为二维椭圆半轴的长度。这一概念可以推广到<math>n</math>维[['''欧几里得空间 Euclidean space''']]:任何<math>n \times n</math>方阵的奇异值都可以看作<math>n</math>维椭球体半轴的长度。同理,任何<math>m \times n</math>矩阵的奇异值可以视为<math>m</math>维空间中<math>n</math>维椭球体半轴的长度,比如三维空间中(倾斜的)二维平面上的椭圆。奇异值编码了半轴的长度,而奇异向量则编码了方向。详见下文:
    
===<math>\mathbf{U}</math>和<math>\mathbf{V}</math>的列构成正交标准基===
 
===<math>\mathbf{U}</math>和<math>\mathbf{V}</math>的列构成正交标准基===
   −
由于<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是酉矩阵,它们的列分别形成一组正交标准向量 orthonormal vectors,我们可以将其视为'''基向量 basis vectors'''。矩阵<math>\mathbf{M}</math>把基向量<math>\mathbf{V}_i</math>映射到拉伸后的单位向量<math>\sigma_i\mathbf{U}_i</math>上。根据酉矩阵的定义,它们的共轭转置<math>\mathbf{U}^*</math>和<math>\mathbf{V}</math>也具有相同性质,只是失去了奇异值作为拉伸的几何解释。简言之,<math>\mathbf{U}</math>、<math>\mathbf{U}^*</math>、<math>\mathbf{V}</math>和<math>\mathbf{V}^*</math>的列都构成'''标准正交基 orthonormal bases'''。
+
由于<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是酉矩阵,它们的列分别形成一组正交标准向量 orthonormal vectors,我们可以将其视为[['''基向量 basis vectors''']]。矩阵<math>\mathbf{M}</math>把基向量<math>\mathbf{V}_i</math>映射到拉伸后的单位向量<math>\sigma_i\mathbf{U}_i</math>上。根据酉矩阵的定义,它们的共轭转置<math>\mathbf{U}^*</math>和<math>\mathbf{V}</math>也具有相同性质,只是失去了奇异值作为拉伸的几何解释。简言之,<math>\mathbf{U}</math>、<math>\mathbf{U}^*</math>、<math>\mathbf{V}</math>和<math>\mathbf{V}^*</math>的列都构成[['''标准正交基 orthonormal bases''']]
   −
当<math>\mathbf{M}</math>是'''正半定厄米特矩阵 positive-semidefinite Hermitian matrix'''时,<math>\mathbf{U}</math>和<math>\mathbf{V}</math>都等同于用于对角化<math>\mathbf{M}</math>的酉矩阵。然而,如果<math>\mathbf{M}</math>不是正半定厄米特矩阵但仍可对角化,那么其特征分解和奇异值分解就会有所不同。
+
当<math>\mathbf{M}</math>是[['''正半定厄米特矩阵 positive-semidefinite Hermitian matrix''']]时,<math>\mathbf{U}</math>和<math>\mathbf{V}</math>都等同于用于对角化<math>\mathbf{M}</math>的酉矩阵。然而,如果<math>\mathbf{M}</math>不是正半定厄米特矩阵但仍可对角化,那么其特征分解和奇异值分解就会有所不同。
    
===与四个基本子空间的关系:===
 
===与四个基本子空间的关系:===
第52行: 第52行:  
===几何意义:===
 
===几何意义:===
   −
由于<math>\mathbf{U}</math>和<math>\mathbf{V}</math>是酉矩阵,<math>\mathbf{U}</math>的列<math>\mathbf{U}_1,\ldots,\mathbf{U}_m</math>构成<math>K^m</math>的正交标准基,<math>\mathbf{V}</math>的列<math>\mathbf{V}_1,\ldots,\mathbf{V}_n</math>构成<math>K^n</math>的正交标准基(基于这些空间的'''标量积 scalar products''')。
+
由于<math>\mathbf{U}</math>和<math>\mathbf{V}</math>是酉矩阵,<math>\mathbf{U}</math>的列<math>\mathbf{U}_1,\ldots,\mathbf{U}_m</math>构成<math>K^m</math>的正交标准基,<math>\mathbf{V}</math>的列<math>\mathbf{V}_1,\ldots,\mathbf{V}_n</math>构成<math>K^n</math>的正交标准基(基于这些空间的[['''标量积 scalar products''']])。
    
线性变换
 
线性变换
第68行: 第68行:  
SVD定理的几何含义可以概括为:对于每个线性映射<math>T:K^n\to K^m</math>,我们能找到<math>K^n</math>和<math>K^m</math>的正交标准基,使<math>T</math>将<math>K^n</math>的第<math>i</math>个基向量映射到<math>K^m</math>的第<math>i</math>个基向量的非负倍数,并将剩余基向量映射到零。在这些基下,映射<math>T</math>表现为一个具有非负实数对角元素的对角矩阵。
 
SVD定理的几何含义可以概括为:对于每个线性映射<math>T:K^n\to K^m</math>,我们能找到<math>K^n</math>和<math>K^m</math>的正交标准基,使<math>T</math>将<math>K^n</math>的第<math>i</math>个基向量映射到<math>K^m</math>的第<math>i</math>个基向量的非负倍数,并将剩余基向量映射到零。在这些基下,映射<math>T</math>表现为一个具有非负实数对角元素的对角矩阵。
   −
为了更直观地理解奇异值和SVD分解(至少在实向量空间中),我们可以考虑<math>\mathbf{R}^n</math>中半径为1的球面<math>S</math>。线性映射<math>T</math>将这个球面映射到<math>\mathbf{R}^m</math>中的一个椭球体。非零奇异值就是这个椭球体'''半轴 semi-axes'''的长度。特别地,当<math>n=m</math>且所有奇异值都不同且非零时,线性映射<math>T</math>的SVD可以分解为三个连续步骤:
+
为了更直观地理解奇异值和SVD分解(至少在实向量空间中),我们可以考虑<math>\mathbf{R}^n</math>中半径为1的球面<math>S</math>。线性映射<math>T</math>将这个球面映射到<math>\mathbf{R}^m</math>中的一个椭球体。非零奇异值就是这个椭球体[['''半轴 semi-axes''']]的长度。特别地,当<math>n=m</math>且所有奇异值都不同且非零时,线性映射<math>T</math>的SVD可以分解为三个连续步骤:
    
1. 考虑椭球体<math>T(S)</math>及其轴,然后找出<math>\mathbf{R}^n</math>中被<math>T</math>映射到这些轴上的方向。这些方向恰好相互正交。首先应用等距变换<math>\mathbf{V}^*</math>,将这些方向送到<math>\mathbf{R}^n</math>的坐标轴。
 
1. 考虑椭球体<math>T(S)</math>及其轴,然后找出<math>\mathbf{R}^n</math>中被<math>T</math>映射到这些轴上的方向。这些方向恰好相互正交。首先应用等距变换<math>\mathbf{V}^*</math>,将这些方向送到<math>\mathbf{R}^n</math>的坐标轴。
   −
2. 应用沿坐标轴对角化的'''自同态 endomorphism'''<math>\mathbf{D}</math>,在每个方向上进行拉伸或收缩,使用<math>T(S)</math>的半轴长度作为拉伸系数。组合<math>\mathbf{D} \circ \mathbf{V}^*</math>将单位球面送到与<math>T(S)</math>等距的椭球体。
+
2. 应用沿坐标轴对角化的[['''自同态 endomorphism''']]<math>\mathbf{D}</math>,在每个方向上进行拉伸或收缩,使用<math>T(S)</math>的半轴长度作为拉伸系数。组合<math>\mathbf{D} \circ \mathbf{V}^*</math>将单位球面送到与<math>T(S)</math>等距的椭球体。
    
3. 最后,对这个椭球体应用等距变换<math>\mathbf{U}</math>以得到<math>T(S)</math>。
 
3. 最后,对这个椭球体应用等距变换<math>\mathbf{U}</math>以得到<math>T(S)</math>。
第121行: 第121行:  
</math>
 
</math>
   −
注意,缩放矩阵<math>\mathbf{\Sigma}</math>在对角线以外的元素都为零(用灰色斜体表示),且有一个对角线元素为零(用红色粗体表示,在暗模式下为浅蓝色粗体)。由于<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是酉矩阵,将它们分别与其共轭转置相乘会得到'''单位矩阵 identity matrices'''。在这个例子中,<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是实值矩阵,因此它们都是正交矩阵。我们可以验证:
+
注意,缩放矩阵<math>\mathbf{\Sigma}</math>在对角线以外的元素都为零(用灰色斜体表示),且有一个对角线元素为零(用红色粗体表示,在暗模式下为浅蓝色粗体)。由于<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是酉矩阵,将它们分别与其共轭转置相乘会得到[['''单位矩阵 identity matrices''']]。在这个例子中,<math>\mathbf{U}</math>和<math>\mathbf{V}^*</math>都是实值矩阵,因此它们都是正交矩阵。我们可以验证:
    
<math>
 
<math>
第179行: 第179行:     
1. 一个 <math>m \times n</math> 矩阵 <math>\mathbf{M}</math> 最多有 <math>p</math> 个不同的奇异值。
 
1. 一个 <math>m \times n</math> 矩阵 <math>\mathbf{M}</math> 最多有 <math>p</math> 个不同的奇异值。
2. 我们总能在 <math>K^m</math> 中找到一个'''酉基 unitary basis''' <math>\mathbf{U}</math>,其中部分基向量张成 <math>\mathbf{M}</math> 每个奇异值的左奇异向量。
+
2. 我们总能在 <math>K^m</math> 中找到一个[['''酉基 unitary basis''']] <math>\mathbf{U}</math>,其中部分基向量张成 <math>\mathbf{M}</math> 每个奇异值的左奇异向量。
 
3. 同样,我们也能在 <math>K^n</math> 中找到一个酉基 <math>\mathbf{V}</math>,其中部分基向量张成 <math>\mathbf{M}</math> 每个奇异值的右奇异向量。
 
3. 同样,我们也能在 <math>K^n</math> 中找到一个酉基 <math>\mathbf{V}</math>,其中部分基向量张成 <math>\mathbf{M}</math> 每个奇异值的右奇异向量。
    
当我们能找到两个线性独立的左(或右)奇异向量时,我们称该奇异值为简并的。如果 <math>\mathbf{u}_1</math> 和 <math>\mathbf{u}_2</math> 是对应奇异值 <math>\sigma</math> 的两个左奇异向量,那么这两个向量的任何归一化线性组合也是对应奇异值 <math>\sigma</math> 的左奇异向量。右奇异向量也有类似性质。独立的左奇异向量和右奇异向量数量相同,它们出现在 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的相同列中,对应 <math>\mathbf{\Sigma}</math> 中具有相同值 <math>\sigma</math> 的对角元素。
 
当我们能找到两个线性独立的左(或右)奇异向量时,我们称该奇异值为简并的。如果 <math>\mathbf{u}_1</math> 和 <math>\mathbf{u}_2</math> 是对应奇异值 <math>\sigma</math> 的两个左奇异向量,那么这两个向量的任何归一化线性组合也是对应奇异值 <math>\sigma</math> 的左奇异向量。右奇异向量也有类似性质。独立的左奇异向量和右奇异向量数量相同,它们出现在 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的相同列中,对应 <math>\mathbf{\Sigma}</math> 中具有相同值 <math>\sigma</math> 的对角元素。
   −
特别地,奇异值为0的左奇异向量和右奇异向量分别包括 <math>\mathbf{M}</math> 的'''余核 cokernel'''和'''核 kernel'''中的所有单位向量。根据'''秩-零化度定理 rank–nullity theorem''',如果 <math>m \neq n</math>,它们的维数不可能相同。即使所有奇异值都非零,当 <math>m > n</math> 时,余核是非平凡的,此时 <math>\mathbf{U}</math> 用余核中的 <math>m-n</math> 个正交向量填充。相反,当 <math>m < n</math> 时,<math>\mathbf{V}</math> 由核中的 <math>n-m</math> 个正交向量填充。然而,如果存在0的奇异值,<math>\mathbf{U}</math> 或 <math>\mathbf{V}</math> 的额外列已经作为左奇异向量或右奇异向量出现。
+
特别地,奇异值为0的左奇异向量和右奇异向量分别包括 <math>\mathbf{M}</math> 的[['''余核 cokernel''']][['''核 kernel''']]中的所有单位向量。根据[['''秩-零化度定理 rank–nullity theorem''']],如果 <math>m \neq n</math>,它们的维数不可能相同。即使所有奇异值都非零,当 <math>m > n</math> 时,余核是非平凡的,此时 <math>\mathbf{U}</math> 用余核中的 <math>m-n</math> 个正交向量填充。相反,当 <math>m < n</math> 时,<math>\mathbf{V}</math> 由核中的 <math>n-m</math> 个正交向量填充。然而,如果存在0的奇异值,<math>\mathbf{U}</math> 或 <math>\mathbf{V}</math> 的额外列已经作为左奇异向量或右奇异向量出现。
    
非简并奇异值总有唯一的左奇异向量和右奇异向量,只能乘以单位相位因子 <math>e^{i\varphi}</math>(实数情况下,只能乘以正负号)。因此,如果方阵 <math>\mathbf{M}</math> 的所有奇异值都是非简并且非零的,那么它的奇异值分解是唯一的,只能对 <math>\mathbf{U}</math> 的一列乘以单位相位因子,同时对 <math>\mathbf{V}</math> 的相应列乘以相同的单位相位因子。总的来说,SVD 在对 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的列向量(这些列向量张成每个奇异值的子空间)统一应用任意酉变换,以及对 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的向量(这些向量分别张成 <math>\mathbf{M}</math> 的核和余核)应用任意酉变换的情况下是唯一的。
 
非简并奇异值总有唯一的左奇异向量和右奇异向量,只能乘以单位相位因子 <math>e^{i\varphi}</math>(实数情况下,只能乘以正负号)。因此,如果方阵 <math>\mathbf{M}</math> 的所有奇异值都是非简并且非零的,那么它的奇异值分解是唯一的,只能对 <math>\mathbf{U}</math> 的一列乘以单位相位因子,同时对 <math>\mathbf{V}</math> 的相应列乘以相同的单位相位因子。总的来说,SVD 在对 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的列向量(这些列向量张成每个奇异值的子空间)统一应用任意酉变换,以及对 <math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 的向量(这些向量分别张成 <math>\mathbf{M}</math> 的核和余核)应用任意酉变换的情况下是唯一的。
第190行: 第190行:  
===与特征值分解的关系===
 
===与特征值分解的关系===
   −
奇异值分解具有广泛适用性,可用于任何 <math>m \times n</math> 矩阵,而'''特征值分解 eigenvalue decomposition'''仅限于可对角化的方阵。尽管如此,这两种分解方法仍有密切联系。
+
奇异值分解具有广泛适用性,可用于任何 <math>m \times n</math> 矩阵,而[['''特征值分解 eigenvalue decomposition''']]仅限于可对角化的方阵。尽管如此,这两种分解方法仍有密切联系。
    
设 <math>\mathbf{M}</math> 的SVD为 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,则以下两个等式成立:
 
设 <math>\mathbf{M}</math> 的SVD为 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,则以下两个等式成立:
第208行: 第208行:  
等式右侧描述了左侧的特征值分解。由此可得:
 
等式右侧描述了左侧的特征值分解。由此可得:
   −
1. <math>\mathbf{V}</math> 的列(即右奇异向量)是 <math>\mathbf{M}^*\mathbf{M}</math> 的'''特征向量 eigenvectors'''。
+
1. <math>\mathbf{V}</math> 的列(即右奇异向量)是 <math>\mathbf{M}^*\mathbf{M}</math> 的[['''特征向量 eigenvectors''']]
 
2. <math>\mathbf{U}</math> 的列(即左奇异向量)是 <math>\mathbf{M}\mathbf{M}^*</math> 的特征向量。
 
2. <math>\mathbf{U}</math> 的列(即左奇异向量)是 <math>\mathbf{M}\mathbf{M}^*</math> 的特征向量。
 
3. <math>\mathbf{\Sigma}</math> 的非零元素(即非零奇异值)是 <math>\mathbf{M}^*\mathbf{M}</math> 或 <math>\mathbf{M}\mathbf{M}^*</math> 非零特征值的平方根。
 
3. <math>\mathbf{\Sigma}</math> 的非零元素(即非零奇异值)是 <math>\mathbf{M}^*\mathbf{M}</math> 或 <math>\mathbf{M}\mathbf{M}^*</math> 非零特征值的平方根。
   −
当 <math>\mathbf{M}</math> 为正规矩阵(normal matrix)时,根据'''谱定理 spectral theorem''',我们可以用特征向量的基对其进行酉对角化,得到分解 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^*</math>。其中 <math>\mathbf{U}</math> 是酉矩阵,<math>\mathbf{D}</math> 是对角线上有复数元素 <math>\sigma_i</math> 的对角矩阵。若 <math>\mathbf{M}</math> 为'''半正定 positive semi-definite'''矩阵,则 <math>\sigma_i</math> 为非负实数,此时分解 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^*</math> 也是一个奇异值分解。否则,我们可以将每个 <math>\sigma_i</math> 的相位 <math>e^{i\varphi}</math> 移到相应的 <math>\mathbf{V}_i</math> 或 <math>\mathbf{U}_i</math> 中,从而重新表示为SVD形式。SVD与非正规矩阵的联系主要体现在极分解定理:<math>\mathbf{M} = \mathbf{S}\mathbf{R}</math>,其中 <math>\mathbf{S} = \mathbf{U}\mathbf{\Sigma}\mathbf{U}^*</math> 是半正定且正规的,<math>\mathbf{R} = \mathbf{U}\mathbf{V}^*</math> 是酉的。
+
当 <math>\mathbf{M}</math> 为正规矩阵(normal matrix)时,根据[['''谱定理 spectral theorem''']],我们可以用特征向量的基对其进行酉对角化,得到分解 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^*</math>。其中 <math>\mathbf{U}</math> 是酉矩阵,<math>\mathbf{D}</math> 是对角线上有复数元素 <math>\sigma_i</math> 的对角矩阵。若 <math>\mathbf{M}</math> 为[['''半正定 positive semi-definite''']]矩阵,则 <math>\sigma_i</math> 为非负实数,此时分解 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^*</math> 也是一个奇异值分解。否则,我们可以将每个 <math>\sigma_i</math> 的相位 <math>e^{i\varphi}</math> 移到相应的 <math>\mathbf{V}_i</math> 或 <math>\mathbf{U}_i</math> 中,从而重新表示为SVD形式。SVD与非正规矩阵的联系主要体现在极分解定理:<math>\mathbf{M} = \mathbf{S}\mathbf{R}</math>,其中 <math>\mathbf{S} = \mathbf{U}\mathbf{\Sigma}\mathbf{U}^*</math> 是半正定且正规的,<math>\mathbf{R} = \mathbf{U}\mathbf{V}^*</math> 是酉的。
    
因此,除半正定矩阵外,<math>\mathbf{M}</math> 的特征值分解和SVD虽有关联,但并不相同:特征值分解形如 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^{-1}</math>,其中 <math>\mathbf{U}</math> 不一定是酉的,<math>\mathbf{D}</math> 不一定是半正定的;而SVD形如 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,其中 <math>\mathbf{\Sigma}</math> 是对角的且半正定的,<math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 是酉矩阵,它们除了通过矩阵 <math>\mathbf{M}</math> 外不一定有关联。值得注意的是,只有非亏损(non-defective)方阵才有特征值分解,而任何 <math>m \times n</math> 矩阵都存在SVD。
 
因此,除半正定矩阵外,<math>\mathbf{M}</math> 的特征值分解和SVD虽有关联,但并不相同:特征值分解形如 <math>\mathbf{M} = \mathbf{U}\mathbf{D}\mathbf{U}^{-1}</math>,其中 <math>\mathbf{U}</math> 不一定是酉的,<math>\mathbf{D}</math> 不一定是半正定的;而SVD形如 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,其中 <math>\mathbf{\Sigma}</math> 是对角的且半正定的,<math>\mathbf{U}</math> 和 <math>\mathbf{V}</math> 是酉矩阵,它们除了通过矩阵 <math>\mathbf{M}</math> 外不一定有关联。值得注意的是,只有非亏损(non-defective)方阵才有特征值分解,而任何 <math>m \times n</math> 矩阵都存在SVD。
第224行: 第224行:  
<math>\mathbf{M}^+ = \mathbf{V}\mathbf{\Sigma}^+\mathbf{U}^*</math>
 
<math>\mathbf{M}^+ = \mathbf{V}\mathbf{\Sigma}^+\mathbf{U}^*</math>
   −
这里,<math>\mathbf{\Sigma}^+</math> 是 <math>\mathbf{\Sigma}</math> 的伪逆,我们通过将每个非零对角元素取倒数并转置来得到它。伪逆在解决'''线性最小二乘问题 linear least squares problems'''时常常派上用场。
+
这里,<math>\mathbf{\Sigma}^+</math> 是 <math>\mathbf{\Sigma}</math> 的伪逆,我们通过将每个非零对角元素取倒数并转置来得到它。伪逆在解决[['''线性最小二乘问题 linear least squares problems''']]时常常派上用场。
    
===求解齐次线性方程===
 
===求解齐次线性方程===
   −
我们可以将一组'''齐次线性方程 homogeneous linear equations'''表示为 <math>\mathbf{A}\mathbf{x} = \mathbf{0}</math>,其中 <math>\mathbf{A}</math> 是矩阵,<math>\mathbf{x}</math> 是向量。通常,我们已知 <math>\mathbf{A}</math>,需要找出满足方程的非零 <math>\mathbf{x}</math>。这样的 <math>\mathbf{x}</math> 属于 <math>\mathbf{A}</math> 的零空间,也称为 <math>\mathbf{A}</math> 的(右)零向量。我们可以将向量 <math>\mathbf{x}</math> 描述为与 <math>\mathbf{A}</math> 的零奇异值对应的右奇异向量。这意味着,如果 <math>\mathbf{A}</math> 是方阵且没有零奇异值,则方程没有非零解。若有多个零奇异值,那么对应的右奇异向量的任意线性组合都是有效解。类似地,满足 <math>\mathbf{x}^*\mathbf{A} = \mathbf{0}</math> 的非零 <math>\mathbf{x}</math>(其中 <math>\mathbf{x}^*</math> 是 <math>\mathbf{x}</math> 的共轭转置)被称为 <math>\mathbf{A}</math> 的左零向量。
+
我们可以将一组[['''齐次线性方程 homogeneous linear equations''']]表示为 <math>\mathbf{A}\mathbf{x} = \mathbf{0}</math>,其中 <math>\mathbf{A}</math> 是矩阵,<math>\mathbf{x}</math> 是向量。通常,我们已知 <math>\mathbf{A}</math>,需要找出满足方程的非零 <math>\mathbf{x}</math>。这样的 <math>\mathbf{x}</math> 属于 <math>\mathbf{A}</math> 的零空间,也称为 <math>\mathbf{A}</math> 的(右)零向量。我们可以将向量 <math>\mathbf{x}</math> 描述为与 <math>\mathbf{A}</math> 的零奇异值对应的右奇异向量。这意味着,如果 <math>\mathbf{A}</math> 是方阵且没有零奇异值,则方程没有非零解。若有多个零奇异值,那么对应的右奇异向量的任意线性组合都是有效解。类似地,满足 <math>\mathbf{x}^*\mathbf{A} = \mathbf{0}</math> 的非零 <math>\mathbf{x}</math>(其中 <math>\mathbf{x}^*</math> 是 <math>\mathbf{x}</math> 的共轭转置)被称为 <math>\mathbf{A}</math> 的左零向量。
    
===总体最小二乘最小化===
 
===总体最小二乘最小化===
   −
'''总体最小二乘 total least squares问题'''旨在找到一个向量 <math>\mathbf{x}</math>,使得在 <math>\|\mathbf{x}\| = 1</math> 的约束下,<math>\mathbf{A}\mathbf{x}</math> 的2-范数2-norm最小。结果表明,解就是 <math>\mathbf{A}</math> 最小奇异值对应的右奇异向量。
+
[['''总体最小二乘 total least squares问题''']]旨在找到一个向量 <math>\mathbf{x}</math>,使得在 <math>\|\mathbf{x}\| = 1</math> 的约束下,<math>\mathbf{A}\mathbf{x}</math> 的2-范数2-norm最小。结果表明,解就是 <math>\mathbf{A}</math> 最小奇异值对应的右奇异向量。
    
===值域、零空间和秩===
 
===值域、零空间和秩===
第238行: 第238行:  
SVD还能为矩阵 <math>\mathbf{M}</math> 的值域和零空间提供明确表示。<math>\mathbf{M}</math> 零奇异值对应的右奇异向量张成其零空间,非零奇异值对应的左奇异向量张成其值域。例如,在前面的例子中,零空间由 <math>\mathbf{V}^*</math> 的最后一行张成,值域由 <math>\mathbf{U}</math> 的前三列张成。
 
SVD还能为矩阵 <math>\mathbf{M}</math> 的值域和零空间提供明确表示。<math>\mathbf{M}</math> 零奇异值对应的右奇异向量张成其零空间,非零奇异值对应的左奇异向量张成其值域。例如,在前面的例子中,零空间由 <math>\mathbf{V}^*</math> 的最后一行张成,值域由 <math>\mathbf{U}</math> 的前三列张成。
   −
因此,<math>\mathbf{M}</math> 的秩等于非零奇异值的个数,也就是 <math>\mathbf{\Sigma}</math> 中非零对角元素的个数。在数值线性代数中,我们可以用奇异值确定矩阵的有效秩,因为'''舍入误差 rounding error'''可能导致秩亏矩阵出现小但非零的奇异值。我们通常认为超过显著间隙的奇异值在数值上等同于零。
+
因此,<math>\mathbf{M}</math> 的秩等于非零奇异值的个数,也就是 <math>\mathbf{\Sigma}</math> 中非零对角元素的个数。在数值线性代数中,我们可以用奇异值确定矩阵的有效秩,因为[['''舍入误差 rounding error''']]可能导致秩亏矩阵出现小但非零的奇异值。我们通常认为超过显著间隙的奇异值在数值上等同于零。
    
===低秩矩阵近似===
 
===低秩矩阵近似===
第250行: 第250行:  
===可分离模型===
 
===可分离模型===
   −
我们可以将SVD视为把矩阵分解成加权、有序的可分离矩阵之和。所谓可分离,指的是矩阵 <math>\mathbf{A}</math> 可以表示为两个向量的'''外积 outer product''' <math>\mathbf{A} = \mathbf{u} \otimes \mathbf{v}</math>,用坐标表示即 <math>A_{ij} = u_i v_j</math>。具体来说,矩阵 <math>\mathbf{M}</math> 的分解如下:
+
我们可以将SVD视为把矩阵分解成加权、有序的可分离矩阵之和。所谓可分离,指的是矩阵 <math>\mathbf{A}</math> 可以表示为两个向量的[['''外积 outer product''']] <math>\mathbf{A} = \mathbf{u} \otimes \mathbf{v}</math>,用坐标表示即 <math>A_{ij} = u_i v_j</math>。具体来说,矩阵 <math>\mathbf{M}</math> 的分解如下:
    
<math>\mathbf{M} = \sum_i \mathbf{A}_i = \sum_i \sigma_i \mathbf{U}_i \otimes \mathbf{V}_i</math>
 
<math>\mathbf{M} = \sum_i \mathbf{A}_i = \sum_i \sigma_i \mathbf{U}_i \otimes \mathbf{V}_i</math>
第256行: 第256行:  
这里,<math>\mathbf{U}_i</math> 和 <math>\mathbf{V}_i</math> 分别是SVD矩阵的第i列,<math>\sigma_i</math> 是有序奇异值,每个 <math>\mathbf{A}_i</math> 都是可分离的。在图像处理中,我们常用SVD将滤波器分解为水平和垂直的可分离滤波器。值得注意的是,非零 <math>\sigma_i</math> 的数量恰好等于矩阵的秩。[需要引用]
 
这里,<math>\mathbf{U}_i</math> 和 <math>\mathbf{V}_i</math> 分别是SVD矩阵的第i列,<math>\sigma_i</math> 是有序奇异值,每个 <math>\mathbf{A}_i</math> 都是可分离的。在图像处理中,我们常用SVD将滤波器分解为水平和垂直的可分离滤波器。值得注意的是,非零 <math>\sigma_i</math> 的数量恰好等于矩阵的秩。[需要引用]
   −
可分离模型在生物系统中很常见,SVD分解在分析这些系统时非常有用。例如,我们可以用空间域的Gabor滤波器乘以时间域的调制函数来很好地描述一些视觉区V1简单细胞的感受野<ref>{{citation | last1=DeAngelis | first1=G. C. | last2 = Ohzawa | first2 = I.| last3 = Freeman | first3 = R. D. | title="Receptive-field dynamics in the central visual pathways" | journal=Trends Neurosci | date = October 1995 | volume=18 | issue=10| pages=451–8. | doi=10.1016/0166-2236(95)94496-R| pmid=8545912| s2cid=12827601}}</ref>。因此,如果我们通过'''反向相关 reverse correlation'''等方法评估得到线性滤波器,就可以将两个空间维度重排为一个维度,得到一个二维滤波器(空间,时间),然后进行SVD分解。在SVD分解中,<math>\mathbf{U}</math> 的第一列就是Gabor,而 <math>\mathbf{V}</math> 的第一列代表时间调制(或反之)。
+
可分离模型在生物系统中很常见,SVD分解在分析这些系统时非常有用。例如,我们可以用空间域的Gabor滤波器乘以时间域的调制函数来很好地描述一些视觉区V1简单细胞的感受野<ref>{{citation | last1=DeAngelis | first1=G. C. | last2 = Ohzawa | first2 = I.| last3 = Freeman | first3 = R. D. | title="Receptive-field dynamics in the central visual pathways" | journal=Trends Neurosci | date = October 1995 | volume=18 | issue=10| pages=451–8. | doi=10.1016/0166-2236(95)94496-R| pmid=8545912| s2cid=12827601}}</ref>。因此,如果我们通过[['''反向相关 reverse correlation''']]等方法评估得到线性滤波器,就可以将两个空间维度重排为一个维度,得到一个二维滤波器(空间,时间),然后进行SVD分解。在SVD分解中,<math>\mathbf{U}</math> 的第一列就是Gabor,而 <math>\mathbf{V}</math> 的第一列代表时间调制(或反之)。
    
我们可以定义一个可分离性指数:
 
我们可以定义一个可分离性指数:
第268行: 第268行:  
我们可以利用方阵 <math>\mathbf{A}</math> 的SVD来找出最接近 <math>\mathbf{A}</math> 的正交矩阵 <math>\mathbf{O}</math>。这里,我们用 <math>\mathbf{O} - \mathbf{A}</math> 的Frobenius范数来衡量接近程度。解是 <math>\mathbf{U}\mathbf{V}^*</math> 的乘积。<ref>{{citation| url=https://people.wou.edu/~beavers/Talks/Willamette1106.pdf| title=The Singular Value Decomposition in Symmetric (Lowdin) Orthogonalization and Data Compression}}</ref>这个结果在直觉上是合理的,因为正交矩阵会有分解 <math>\mathbf{U}\mathbf{I}\mathbf{V}^*</math>,其中 <math>\mathbf{I}</math> 是单位矩阵。所以如果 <math>\mathbf{A} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,那么乘积 <math>\mathbf{A} = \mathbf{U}\mathbf{V}^*</math> 相当于用1替换所有奇异值。等价地,解就是极分解 <math>\mathbf{M} = \mathbf{R}\mathbf{P} = \mathbf{P}'\mathbf{R}</math> 中的酉矩阵 <math>\mathbf{R} = \mathbf{U}\mathbf{V}^*</math>,无论拉伸和旋转的顺序如何。
 
我们可以利用方阵 <math>\mathbf{A}</math> 的SVD来找出最接近 <math>\mathbf{A}</math> 的正交矩阵 <math>\mathbf{O}</math>。这里,我们用 <math>\mathbf{O} - \mathbf{A}</math> 的Frobenius范数来衡量接近程度。解是 <math>\mathbf{U}\mathbf{V}^*</math> 的乘积。<ref>{{citation| url=https://people.wou.edu/~beavers/Talks/Willamette1106.pdf| title=The Singular Value Decomposition in Symmetric (Lowdin) Orthogonalization and Data Compression}}</ref>这个结果在直觉上是合理的,因为正交矩阵会有分解 <math>\mathbf{U}\mathbf{I}\mathbf{V}^*</math>,其中 <math>\mathbf{I}</math> 是单位矩阵。所以如果 <math>\mathbf{A} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math>,那么乘积 <math>\mathbf{A} = \mathbf{U}\mathbf{V}^*</math> 相当于用1替换所有奇异值。等价地,解就是极分解 <math>\mathbf{M} = \mathbf{R}\mathbf{P} = \mathbf{P}'\mathbf{R}</math> 中的酉矩阵 <math>\mathbf{R} = \mathbf{U}\mathbf{V}^*</math>,无论拉伸和旋转的顺序如何。
   −
在形状分析中,有一个类似的问题叫做'''正交普鲁克问题 orthogonal Procrustes problem''',它涉及找到一个最接近将 <math>\mathbf{A}</math> 映射到 <math>\mathbf{B}</math> 的正交矩阵 <math>\mathbf{O}</math>。具体来说:
+
在形状分析中,有一个类似的问题叫做[['''正交普鲁克问题 orthogonal Procrustes problem''']],它涉及找到一个最接近将 <math>\mathbf{A}</math> 映射到 <math>\mathbf{B}</math> 的正交矩阵 <math>\mathbf{O}</math>。具体来说:
    
<math>\mathbf{O} = \underset{\Omega}{\operatorname{argmin}} \|\mathbf{A}\mathbf{\Omega} - \mathbf{B}\|_F \quad \text{subject to} \quad \mathbf{\Omega}^T\mathbf{\Omega} = \mathbf{I}</math>
 
<math>\mathbf{O} = \underset{\Omega}{\operatorname{argmin}} \|\mathbf{A}\mathbf{\Omega} - \mathbf{B}\|_F \quad \text{subject to} \quad \mathbf{\Omega}^T\mathbf{\Omega} = \mathbf{I}</math>
第286行: 第286行:  
===其他例子===
 
===其他例子===
   −
奇异值分解(SVD)在线性'''反问题 inverse problems'''研究中广泛应用,分析Tikhonov正则化等方法时颇有助益。统计学界普遍使用它,与'''主成分分析 principal component analysis'''和'''对应分析 correspondence analysis'''密切相关,信号处理和模式识别领域也常见其身影。此外,它还用于仅输出'''模态分析 modal analysis''',可从奇异向量确定非缩放'''模态形状 mode shapes'''。自然语言文本处理中的'''潜在语义索引 latent semantic indexing'''也离不开它。
+
奇异值分解(SVD)在线性[['''反问题 inverse problems''']]研究中广泛应用,分析Tikhonov正则化等方法时颇有助益。统计学界普遍使用它,与[['''主成分分析 principal component analysis''']][['''对应分析 correspondence analysis''']]密切相关,信号处理和模式识别领域也常见其身影。此外,它还用于仅输出[['''模态分析 modal analysis''']],可从奇异向量确定非缩放[['''模态形状 mode shapes''']]。自然语言文本处理中的[['''潜在语义索引 latent semantic indexing''']]也离不开它。
    
在涉及线性或线性化系统的一般数值计算中,常用一个普遍常数来刻画问题的规律性或奇异性,即系统的"条件数" <math>\kappa := \sigma_{\text{max}} / \sigma_{\text{min}}</math>。这个数值通常决定了给定计算方案在这些系统上的误差率或收敛速度。
 
在涉及线性或线性化系统的一般数值计算中,常用一个普遍常数来刻画问题的规律性或奇异性,即系统的"条件数" <math>\kappa := \sigma_{\text{max}} / \sigma_{\text{min}}</math>。这个数值通常决定了给定计算方案在这些系统上的误差率或收敛速度。
   −
'''量子信息 quantum informatio'''领域中,SVD以Schmidt分解的形式发挥着关键作用。通过它,我们可以自然地分解两个量子系统的状态,从而提供了它们纠缠的充要条件:只要 <math>\mathbf{\Sigma}</math> 矩阵的秩大于1。
+
[['''量子信息 quantum informatio''']]领域中,SVD以Schmidt分解的形式发挥着关键作用。通过它,我们可以自然地分解两个量子系统的状态,从而提供了它们纠缠的充要条件:只要 <math>\mathbf{\Sigma}</math> 矩阵的秩大于1。
   −
'''数值天气预报 numerical weather prediction'''中,SVD对大型矩阵也有重要应用。利用Lanczos方法,可以估算在给定初始前向时间段内,对中心数值天气预报线性增长最快的几个扰动。这些扰动实际上是该时间间隔内全球天气线性化传播子对应最大奇异值的奇异向量。在这种情况下,输出奇异向量代表整个天气系统。随后,这些扰动通过完整的非线性模型运行,生成'''集合预报 ensemble forecast''',为当前中心预测周围的不确定性提供了处理方法。
+
[['''数值天气预报 numerical weather prediction''']]中,SVD对大型矩阵也有重要应用。利用Lanczos方法,可以估算在给定初始前向时间段内,对中心数值天气预报线性增长最快的几个扰动。这些扰动实际上是该时间间隔内全球天气线性化传播子对应最大奇异值的奇异向量。在这种情况下,输出奇异向量代表整个天气系统。随后,这些扰动通过完整的非线性模型运行,生成[['''集合预报 ensemble forecast''']],为当前中心预测周围的不确定性提供了处理方法。
   −
降阶建模中也少不了SVD的身影。降阶建模旨在减少复杂系统中的自由度数量。研究人员将SVD与'''径向基函数 radial basis functions'''结合,用于插值三维非稳态流问题的解。
+
降阶建模中也少不了SVD的身影。降阶建模旨在减少复杂系统中的自由度数量。研究人员将SVD与[['''径向基函数 radial basis functions''']]结合,用于插值三维非稳态流问题的解。
    
值得一提的是,科学家们已经利用SVD改进了地面引力波干涉仪aLIGO的引力波形建模。SVD有助于提高波形生成的准确性和速度,支持引力波搜索和更新两种不同的波形模型。
 
值得一提的是,科学家们已经利用SVD改进了地面引力波干涉仪aLIGO的引力波形建模。SVD有助于提高波形生成的准确性和速度,支持引力波搜索和更新两种不同的波形模型。
第455行: 第455行:  
===单边雅可比算法 One-sided Jacobi algorithm===
 
===单边雅可比算法 One-sided Jacobi algorithm===
   −
单边雅可比算法是一种迭代算法<ref>{{cite journal |last1=de Rijk |first1=P.P.M. |title=A one-sided Jacobi algorithm for computing the singular value decomposition on a vector computer |journal=SIAM J. Sci. Stat. Comput. |volume=10 |pages=359 |year=1989 }}</ref>,它通过反复转换使矩阵列正交化。其基本迭代步骤由'''雅可比旋转 Jacobi rotation'''给出:
+
单边雅可比算法是一种迭代算法<ref>{{cite journal |last1=de Rijk |first1=P.P.M. |title=A one-sided Jacobi algorithm for computing the singular value decomposition on a vector computer |journal=SIAM J. Sci. Stat. Comput. |volume=10 |pages=359 |year=1989 }}</ref>,它通过反复转换使矩阵列正交化。其基本迭代步骤由[['''雅可比旋转 Jacobi rotation''']]给出:
    
<math> M \leftarrow MJ(p,q,\theta), </math>
 
<math> M \leftarrow MJ(p,q,\theta), </math>
第465行: 第465行:  
===双边雅可比算法 Two-sided Jacobi algorithm===
 
===双边雅可比算法 Two-sided Jacobi algorithm===
   −
双边雅可比SVD算法是'''雅可比特征值算法 Jacobi eigenvalue algorithm'''的推广,它通过迭代将方阵转换为对角矩阵。对于非方阵,我们先进行QR分解,然后对<math>R</math>矩阵应用此算法。其基本迭代步骤如下:先用Givens旋转使一对非对角元素对称,再用'''雅可比变换 Jacobi transformation'''使它们归零,
+
双边雅可比SVD算法是[['''雅可比特征值算法 Jacobi eigenvalue algorithm''']]的推广,它通过迭代将方阵转换为对角矩阵。对于非方阵,我们先进行QR分解,然后对<math>R</math>矩阵应用此算法。其基本迭代步骤如下:先用Givens旋转使一对非对角元素对称,再用[['''雅可比变换 Jacobi transformation''']]使它们归零,
    
<math> M \leftarrow J^{T}GMJ </math>
 
<math> M \leftarrow J^{T}GMJ </math>
第481行: 第481行:  
3. <math>\mathbf{M}</math>的非零奇异值(在<math>\mathbf{\Sigma}</math>的对角线上)等于<math>\mathbf{M}^{*}\mathbf{M}</math>和<math>\mathbf{M}\mathbf{M}^{*}</math>的非零特征值的平方根。
 
3. <math>\mathbf{M}</math>的非零奇异值(在<math>\mathbf{\Sigma}</math>的对角线上)等于<math>\mathbf{M}^{*}\mathbf{M}</math>和<math>\mathbf{M}\mathbf{M}^{*}</math>的非零特征值的平方根。
   −
通常,我们通过两步计算矩阵<math>\mathbf{M}</math>的SVD。第一步将矩阵简化为'''双对角矩阵bidiagonal matrix''',假设<math>m \geq n</math>,需要<math>O(mn^{2})</math>次浮点运算(flop)。第二步计算双对角矩阵的SVD,只能通过迭代方法完成。实际上,计算到机器精度就足够了。如果将这个精度视为常数,第二步需要<math>O(n)</math>次迭代,每次迭代花费<math>O(n)</math>次flop。因此,第一步耗时更长,总体成本为<math>O(mn^{2})</math>次flop(Trefethen & Bau III 1997,第31讲)。
+
通常,我们通过两步计算矩阵<math>\mathbf{M}</math>的SVD。第一步将矩阵简化为[['''双对角矩阵bidiagonal matrix''']],假设<math>m \geq n</math>,需要<math>O(mn^{2})</math>次浮点运算(flop)。第二步计算双对角矩阵的SVD,只能通过迭代方法完成。实际上,计算到机器精度就足够了。如果将这个精度视为常数,第二步需要<math>O(n)</math>次迭代,每次迭代花费<math>O(n)</math>次flop。因此,第一步耗时更长,总体成本为<math>O(mn^{2})</math>次flop(Trefethen & Bau III 1997,第31讲)。
    
如果只需计算奇异值,第一步可用Householder反射以<math>4mn^{2}-4n^{3}/3</math>次flop完成。当<math>m</math>远大于<math>n</math>时,先用QR分解将矩阵<math>\mathbf{M}</math>简化为三角矩阵,再用Householder反射进一步简化为双对角形式更有优势;总成本为<math>2mn^{2}+2n^{3}</math>次flop(Trefethen & Bau III 1997,第31讲)。
 
如果只需计算奇异值,第一步可用Householder反射以<math>4mn^{2}-4n^{3}/3</math>次flop完成。当<math>m</math>远大于<math>n</math>时,先用QR分解将矩阵<math>\mathbf{M}</math>简化为三角矩阵,再用Householder反射进一步简化为双对角形式更有优势;总成本为<math>2mn^{2}+2n^{3}</math>次flop(Trefethen & Bau III 1997,第31讲)。
第487行: 第487行:  
第二步可用QR算法的变体完成,该变体由Golub & Kahan(1965)首次描述。LAPACK子程序DBDSQR<ref>{{cite web |title=Netlib.org |url=http://www.netlib.org/ }}</ref>实现了这种迭代方法,并针对奇异值非常小的情况进行了改进(Demmel & Kahan 1990)。结合使用Householder反射的第一步和适当情况下的QR分解,构成了计算奇异值分解的DGESVD<ref>{{cite web |title=Netlib.org |url=http://www.netlib.org/ }}</ref>例程。
 
第二步可用QR算法的变体完成,该变体由Golub & Kahan(1965)首次描述。LAPACK子程序DBDSQR<ref>{{cite web |title=Netlib.org |url=http://www.netlib.org/ }}</ref>实现了这种迭代方法,并针对奇异值非常小的情况进行了改进(Demmel & Kahan 1990)。结合使用Householder反射的第一步和适当情况下的QR分解,构成了计算奇异值分解的DGESVD<ref>{{cite web |title=Netlib.org |url=http://www.netlib.org/ }}</ref>例程。
   −
GNU科学库(GSL)也实现了相同算法,并提供了一种替代方法,在第2步中使用单边雅可比正交化(GSL Team 2007)。这种方法通过求解一系列<math>2\times 2</math>的SVD问题来计算双对角矩阵的SVD,类似于雅可比特征值算法求解一系列<math>2\times 2</math>的特征值问题(Golub & Van Loan 1996,§8.6.3)。第2步的另一种方法借鉴了'''分治特征值算法 divide-and-conquer eigenvalue algorithms'''的思想(Trefethen & Bau III 1997,第31讲)。
+
GNU科学库(GSL)也实现了相同算法,并提供了一种替代方法,在第2步中使用单边雅可比正交化(GSL Team 2007)。这种方法通过求解一系列<math>2\times 2</math>的SVD问题来计算双对角矩阵的SVD,类似于雅可比特征值算法求解一系列<math>2\times 2</math>的特征值问题(Golub & Van Loan 1996,§8.6.3)。第2步的另一种方法借鉴了[['''分治特征值算法 divide-and-conquer eigenvalue algorithms''']]的思想(Trefethen & Bau III 1997,第31讲)。
    
还有一种不显式使用特征值分解的替代方法。<ref>{{cite web |title=Simple SVD |url=https://mathworks.co.kr/matlabcentral/fileexchange/12674-simple-svd |website=MATLAB Central File Exchange }}</ref>通常,我们将矩阵<math>\mathbf{M}</math>的奇异值问题转换为等价的对称特征值问题,如<math>\mathbf{M}\mathbf{M}^{*}</math>,<math>\mathbf{M}^{*}\mathbf{M}</math>,或
 
还有一种不显式使用特征值分解的替代方法。<ref>{{cite web |title=Simple SVD |url=https://mathworks.co.kr/matlabcentral/fileexchange/12674-simple-svd |website=MATLAB Central File Exchange }}</ref>通常,我们将矩阵<math>\mathbf{M}</math>的奇异值问题转换为等价的对称特征值问题,如<math>\mathbf{M}\mathbf{M}^{*}</math>,<math>\mathbf{M}^{*}\mathbf{M}</math>,或
第499行: 第499行:  
解析<math>2\times 2</math>,我们可以找到矩阵的奇异值。设矩阵为<math>\mathbf{M} =z_{0}\mathbf{I} +z_{1}\sigma_{1}+z_{2}\sigma_{2}+z_{3}\sigma_{3}</math>
 
解析<math>2\times 2</math>,我们可以找到矩阵的奇异值。设矩阵为<math>\mathbf{M} =z_{0}\mathbf{I} +z_{1}\sigma_{1}+z_{2}\sigma_{2}+z_{3}\sigma_{3}</math>
   −
其中<math>z_{i}\in \mathbb{C}</math>是参数化矩阵的复数,<math>\mathbf{I}</math>是单位矩阵,<math>\sigma_{i}</math>表示'''泡利矩阵 Pauli matrices'''。那么它的两个奇异值由以下给出:
+
其中<math>z_{i}\in \mathbb{C}</math>是参数化矩阵的复数,<math>\mathbf{I}</math>是单位矩阵,<math>\sigma_{i}</math>表示[['''泡利矩阵 Pauli matrices''']]。那么它的两个奇异值由以下给出:
    
<math> \begin{aligned}
 
<math> \begin{aligned}
第508行: 第508行:  
==简化奇异值分解==
 
==简化奇异值分解==
   −
[[文件:Reduced Singular Value Decompositions.svg.png|无框||简化奇异值分解可视化]]
+
[[文件:Reduced Singular Value Decompositions.svg.png|无框|居中|简化奇异值分解可视化]]
    
在实际应用中,我们很少需要完全SVD,包括矩阵零空间的完整酉分解。相反,计算简化版的SVD通常就够用了(而且更快,更省存储空间)。对于一个秩为r的<math>m \times n</math>矩阵<math>\mathbf{M}</math>,我们可以区分以下几种情况:
 
在实际应用中,我们很少需要完全SVD,包括矩阵零空间的完整酉分解。相反,计算简化版的SVD通常就够用了(而且更快,更省存储空间)。对于一个秩为r的<math>m \times n</math>矩阵<math>\mathbf{M}</math>,我们可以区分以下几种情况:
第532行: 第532行:  
===截断SVD (Truncated SVD)===
 
===截断SVD (Truncated SVD)===
   −
在很多应用中,非零奇异值的数量r很大,使得即使紧凑SVD也难以计算。这时我们可能需要截断最小的奇异值,只计算<math>t \ll r</math>个非零奇异值。截断SVD不再是原始矩阵<math>\mathbf{M}</math>的精确分解,而是提供了一个固定秩t的最优'''低秩矩阵近似 low-rank matrix approximation'''<math>\tilde{\mathbf{M}}</math>:
+
在很多应用中,非零奇异值的数量r很大,使得即使紧凑SVD也难以计算。这时我们可能需要截断最小的奇异值,只计算<math>t \ll r</math>个非零奇异值。截断SVD不再是原始矩阵<math>\mathbf{M}</math>的精确分解,而是提供了一个固定秩t的最优[['''低秩矩阵近似 low-rank matrix approximation''']]<math>\tilde{\mathbf{M}}</math>:
    
<math>\tilde{\mathbf{M}} = \mathbf{U}_t \mathbf{\Sigma}_t \mathbf{V}_t^*,</math>
 
<math>\tilde{\mathbf{M}} = \mathbf{U}_t \mathbf{\Sigma}_t \mathbf{V}_t^*,</math>
第540行: 第540行:  
在需要近似矩阵<math>\mathbf{M}</math>的Moore–Penrose逆的应用中,<math>\mathbf{M}</math>的最小奇异值是有意义的,但与最大奇异值相比,它们更难计算。
 
在需要近似矩阵<math>\mathbf{M}</math>的Moore–Penrose逆的应用中,<math>\mathbf{M}</math>的最小奇异值是有意义的,但与最大奇异值相比,它们更难计算。
   −
截断SVD在'''潜在语义索引'''中得到了应用。<ref>{{cite journal |last1=Chicco |first1=D |last2=Masseroli |first2=M |title=Software suite for gene and protein annotation prediction and similarity search |journal=IEEE/ACM Transactions on Computational Biology and Bioinformatics |url=https://ieeexplore.ieee.org/document/6987347|volume=12 |issue=4 |pages=837–843 |year=2015 |doi=10.1109/TCBB.2014.2382127 |pmid=26357324 |s2cid=14714823 |hdl=11311/959408 }}</ref>
+
截断SVD在[['''潜在语义索引''']]中得到了应用。<ref>{{cite journal |last1=Chicco |first1=D |last2=Masseroli |first2=M |title=Software suite for gene and protein annotation prediction and similarity search |journal=IEEE/ACM Transactions on Computational Biology and Bioinformatics |url=https://ieeexplore.ieee.org/document/6987347|volume=12 |issue=4 |pages=837–843 |year=2015 |doi=10.1109/TCBB.2014.2382127 |pmid=26357324 |s2cid=14714823 |hdl=11311/959408 }}</ref>
    
==范数==
 
==范数==
第546行: 第546行:  
===Ky Fan范数===
 
===Ky Fan范数===
   −
我们把<math>\mathbf{M}</math>的k个最大奇异值之和称为<math>\mathbf{M}</math>的Ky Fan k-范数,这是一种'''矩阵范数 matrix norm'''。
+
我们把<math>\mathbf{M}</math>的k个最大奇异值之和称为<math>\mathbf{M}</math>的Ky Fan k-范数,这是一种[['''矩阵范数 matrix norm''']]
   −
Ky Fan范数中的第一个,即Ky Fan 1-范数,等同于<math>\mathbf{M}</math>作为线性算子相对于<math>K^m</math>和<math>K^n</math>的欧几里得范数的'''算子范数 operator norm'''。换言之,Ky Fan 1-范数就是标准<math>\ell^2</math>欧几里得内积诱导的算子范数。我们很容易就能验证Ky Fan 1-范数和奇异值之间的关系。一般来说,对于(可能是无限维)希尔伯特空间上的有界算子<math>\mathbf{M}</math>,我们有:
+
Ky Fan范数中的第一个,即Ky Fan 1-范数,等同于<math>\mathbf{M}</math>作为线性算子相对于<math>K^m</math>和<math>K^n</math>的欧几里得范数的[['''算子范数 operator norm''']]。换言之,Ky Fan 1-范数就是标准<math>\ell^2</math>欧几里得内积诱导的算子范数。我们很容易就能验证Ky Fan 1-范数和奇异值之间的关系。一般来说,对于(可能是无限维)希尔伯特空间上的有界算子<math>\mathbf{M}</math>,我们有:
    
<math>\|\mathbf{M}\| = \|\mathbf{M}^*\mathbf{M}\|^{\frac{1}{2}}</math>
 
<math>\|\mathbf{M}\| = \|\mathbf{M}^*\mathbf{M}\|^{\frac{1}{2}}</math>
第554行: 第554行:  
在矩阵情况下,<math>(\mathbf{M}^*\mathbf{M})^{1/2}</math>是个正规矩阵,所以<math>\|\mathbf{M}^*\mathbf{M}\|^{1/2}</math>就是<math>(\mathbf{M}^*\mathbf{M})^{1/2}</math>的最大特征值,也就是<math>\mathbf{M}</math>的最大奇异值。
 
在矩阵情况下,<math>(\mathbf{M}^*\mathbf{M})^{1/2}</math>是个正规矩阵,所以<math>\|\mathbf{M}^*\mathbf{M}\|^{1/2}</math>就是<math>(\mathbf{M}^*\mathbf{M})^{1/2}</math>的最大特征值,也就是<math>\mathbf{M}</math>的最大奇异值。
   −
Ky Fan范数中的最后一个,即所有奇异值的和,我们称之为'''迹范数 trace norm'''(也叫核范数),定义为<math>\|\mathbf{M}\| = \operatorname{Tr}(\mathbf{M}^*\mathbf{M})^{1/2}</math>(<math>\mathbf{M}^*\mathbf{M}</math>的特征值是奇异值的平方)。
+
Ky Fan范数中的最后一个,即所有奇异值的和,我们称之为[['''迹范数 trace norm''']](也叫核范数),定义为<math>\|\mathbf{M}\| = \operatorname{Tr}(\mathbf{M}^*\mathbf{M})^{1/2}</math>(<math>\mathbf{M}^*\mathbf{M}</math>的特征值是奇异值的平方)。
    
===希尔伯特-施密特范数===
 
===希尔伯特-施密特范数===
   −
奇异值还与算子空间上的另一个范数有关。我们来看看<math>n \times n</math>矩阵上的'''希尔伯特-施密特内积''',它的定义是:
+
奇异值还与算子空间上的另一个范数有关。我们来看看<math>n \times n</math>矩阵上的[['''希尔伯特-施密特内积 Hilbert–Schmidt inner product ''']],它的定义是:
    
<math>\langle \mathbf{M}, \mathbf{N} \rangle = \operatorname{tr}(\mathbf{N}^*\mathbf{M}).</math>
 
<math>\langle \mathbf{M}, \mathbf{N} \rangle = \operatorname{tr}(\mathbf{N}^*\mathbf{M}).</math>
第586行: 第586行:  
===希尔伯特空间上的有界算子===
 
===希尔伯特空间上的有界算子===
   −
我们可以将分解 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math> 推广到可分希尔伯特空间 <math>H</math> 上的'''有界算子 bounded operator''' <math>\mathbf{M}</math>。具体来说,对任何有界算子 <math>\mathbf{M}</math>,都存在'''部分等距 partial isometry'''算子 <math>\mathbf{U}</math>,酉算子 <math>\mathbf{V}</math>,测度空间 <math>(X,\mu)</math>,以及非负可测函数 <math>f</math>,使得:
+
我们可以将分解 <math>\mathbf{M} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^*</math> 推广到可分希尔伯特空间 <math>H</math> 上的[['''有界算子 bounded operator''']] <math>\mathbf{M}</math>。具体来说,对任何有界算子 <math>\mathbf{M}</math>,都存在'''部分等距 partial isometry'''算子 <math>\mathbf{U}</math>,酉算子 <math>\mathbf{V}</math>,测度空间 <math>(X,\mu)</math>,以及非负可测函数 <math>f</math>,使得:
    
<math>\mathbf{M} = \mathbf{U}T_f\mathbf{V}^*</math>
 
<math>\mathbf{M} = \mathbf{U}T_f\mathbf{V}^*</math>
第592行: 第592行:  
这里 <math>T_f</math> 是 <math>L^2(X,\mu)</math> 上的 <math>f</math> 乘法算子。
 
这里 <math>T_f</math> 是 <math>L^2(X,\mu)</math> 上的 <math>f</math> 乘法算子。
   −
我们可以通过模仿上述矩阵情况的线性代数论证来证明这一点。<math>\mathbf{V}T_f\mathbf{V}^*</math> 是 <math>\mathbf{M}^*\mathbf{M}</math> 的唯一正平方根,这由'''自伴算子 self-adjoint operators'''的Borel函数演算给出。<math>\mathbf{U}</math> 不必是酉的原因是,与有限维情况不同,给定具有非平凡核的等距算子 <math>U_1</math>,可能找不到合适的 <math>U_2</math> 使得:
+
我们可以通过模仿上述矩阵情况的线性代数论证来证明这一点。<math>\mathbf{V}T_f\mathbf{V}^*</math> 是 <math>\mathbf{M}^*\mathbf{M}</math> 的唯一正平方根,这由[['''自伴算子 self-adjoint operators''']]的Borel函数演算给出。<math>\mathbf{U}</math> 不必是酉的原因是,与有限维情况不同,给定具有非平凡核的等距算子 <math>U_1</math>,可能找不到合适的 <math>U_2</math> 使得:
    
<math>\begin{bmatrix}U_1\\U_2\end{bmatrix}</math>
 
<math>\begin{bmatrix}U_1\\U_2\end{bmatrix}</math>
第606行: 第606行:  
===奇异值和紧算子===
 
===奇异值和紧算子===
   −
我们可以将奇异值和左/右奇异向量的概念推广到'''希尔伯特空间上的紧算子 compact operator on Hilbert space''',因为它们具有离散谱。如果 <math>T</math> 是紧的,其谱中的每个非零 <math>\lambda</math> 都是特征值。此外,紧自伴算子可由其特征向量对角化。如果 <math>\mathbf{M}</math> 是紧的,那么 <math>\mathbf{M}^*\mathbf{M}</math> 也是紧的。应用对角化结果,其正平方根 <math>T_f</math> 的酉像有一组对应于严格正特征值 <math>\{\sigma_i\}</math> 的正交归一化特征向量 <math>\{e_i\}</math>。对 <math>H</math> 中的任意 <math>\psi</math>,有:
+
我们可以将奇异值和左/右奇异向量的概念推广到[['''希尔伯特空间上的紧算子 compact operator on Hilbert space''']],因为它们具有离散谱。如果 <math>T</math> 是紧的,其谱中的每个非零 <math>\lambda</math> 都是特征值。此外,紧自伴算子可由其特征向量对角化。如果 <math>\mathbf{M}</math> 是紧的,那么 <math>\mathbf{M}^*\mathbf{M}</math> 也是紧的。应用对角化结果,其正平方根 <math>T_f</math> 的酉像有一组对应于严格正特征值 <math>\{\sigma_i\}</math> 的正交归一化特征向量 <math>\{e_i\}</math>。对 <math>H</math> 中的任意 <math>\psi</math>,有:
    
<math>\mathbf{M}\psi = \mathbf{U}T_f\mathbf{V}^*\psi = \sum_i \langle \mathbf{U}T_f\mathbf{V}^*\psi, \mathbf{U}e_i \rangle \mathbf{U}e_i = \sum_i \sigma_i \langle \psi, \mathbf{V}e_i \rangle \mathbf{U}e_i,</math>
 
<math>\mathbf{M}\psi = \mathbf{U}T_f\mathbf{V}^*\psi = \sum_i \langle \mathbf{U}T_f\mathbf{V}^*\psi, \mathbf{U}e_i \rangle \mathbf{U}e_i = \sum_i \sigma_i \langle \psi, \mathbf{V}e_i \rangle \mathbf{U}e_i,</math>
第612行: 第612行:  
这里级数在 <math>H</math> 的范数拓扑中收敛。注意,这与有限维情况的表达式相似。我们称 <math>\sigma_i</math> 为 <math>\mathbf{M}</math> 的奇异值,<math>\{\mathbf{U}e_i\}</math> 和 <math>\{\mathbf{U}e_i\}</math> 分别为 <math>\mathbf{M}</math> 的左奇异和右奇异向量。
 
这里级数在 <math>H</math> 的范数拓扑中收敛。注意,这与有限维情况的表达式相似。我们称 <math>\sigma_i</math> 为 <math>\mathbf{M}</math> 的奇异值,<math>\{\mathbf{U}e_i\}</math> 和 <math>\{\mathbf{U}e_i\}</math> 分别为 <math>\mathbf{M}</math> 的左奇异和右奇异向量。
   −
希尔伯特空间上的紧算子是'''有限秩算子'''在一致算子拓扑中的闭包。上述级数表达式给出了这种表示的一个明确例子。这直接导出以下结论:
+
希尔伯特空间上的紧算子是[['''有限秩算子''']]在一致算子拓扑中的闭包。上述级数表达式给出了这种表示的一个明确例子。这直接导出以下结论:
    
定理:<math>\mathbf{M}</math> 是紧的当且仅当 <math>\mathbf{M}^*\mathbf{M}</math> 是紧的。
 
定理:<math>\mathbf{M}</math> 是紧的当且仅当 <math>\mathbf{M}^*\mathbf{M}</math> 是紧的。
第618行: 第618行:  
==历史==
 
==历史==
   −
奇异值分解最初源于微分几何学家的研究。他们希望确定能否通过对两个作用空间进行独立正交变换,使一个实双线性形式等同于另一个。1873年和1874年,Eugenio Beltrami 和 Camille Jordan 分别独立发现,双线性形式(用矩阵表示)的奇异值构成了正交替代下的'''完整不变量集 complete set of invariants'''。1889年,James Joseph Sylvester 也独立得出了实方阵的奇异值分解,他将奇异值称为矩阵 <math>\mathbf{A}</math> 的规范乘子。1915年,Autonne 成为第四位独立发现者,他通过极分解推导出了奇异值分解。直到1936年,Carl Eckart 和 Gale J. Young 才首次证明了矩形和复矩阵的奇异值分解<ref>{{cite journal |last1=Eckart |first1=C. |last2=Young |first2=G. |title=The approximation of one matrix by another of lower rank |journal=Psychometrika |volume=1 |issue=3 |pages=211–8 |year=1936 |doi=10.1007/BF02288367 |s2cid=10163399 }}</ref>,他们将其视为厄米特矩阵主轴变换的推广。
+
奇异值分解最初源于微分几何学家的研究。他们希望确定能否通过对两个作用空间进行独立正交变换,使一个实双线性形式等同于另一个。1873年和1874年,Eugenio Beltrami 和 Camille Jordan 分别独立发现,双线性形式(用矩阵表示)的奇异值构成了正交替代下的[['''完整不变量集 complete set of invariants''']]。1889年,James Joseph Sylvester 也独立得出了实方阵的奇异值分解,他将奇异值称为矩阵 <math>\mathbf{A}</math> 的规范乘子。1915年,Autonne 成为第四位独立发现者,他通过极分解推导出了奇异值分解。直到1936年,Carl Eckart 和 Gale J. Young 才首次证明了矩形和复矩阵的奇异值分解<ref>{{cite journal |last1=Eckart |first1=C. |last2=Young |first2=G. |title=The approximation of one matrix by another of lower rank |journal=Psychometrika |volume=1 |issue=3 |pages=211–8 |year=1936 |doi=10.1007/BF02288367 |s2cid=10163399 }}</ref>,他们将其视为厄米特矩阵主轴变换的推广。
   −
1907年,Erhard Schmidt 为'''积分算子 integral operators'''(在某些弱技术假设下为紧算子)定义了类似奇异值的概念,他似乎不知道有关有限矩阵奇异值的平行研究。1910年,Émile Picard 进一步发展了这一理论,并首次将 <math>\sigma_k</math> 称为奇异值(法语:valeurs singulières)。
+
1907年,Erhard Schmidt 为[['''积分算子 integral operators''']](在某些弱技术假设下为紧算子)定义了类似奇异值的概念,他似乎不知道有关有限矩阵奇异值的平行研究。1910年,Émile Picard 进一步发展了这一理论,并首次将 <math>\sigma_k</math> 称为奇异值(法语:valeurs singulières)。
    
计算奇异值分解的实用方法可追溯到1954-1955年 Kogbetliantz 和1958年 Hestenes 的工作<ref>{{cite journal |last1=Hestenes |first1=M. R. |title=Inversion of Matrices by Biorthogonalization and Related Results |journal=Journal of the Society for Industrial and Applied Mathematics |volume=6 |issue=1 |pages=51–90 |year=1958 |doi=10.1137/0106005 |jstor=2098862 |mr=0092215 }}</ref>。这些方法与使用平面旋转或 Givens 旋转的 Jacobi 特征值算法极为相似。然而,1965年 Gene Golub 和 William Kahan 发表的方法<ref>(Golub & Kahan 1965)</ref>取代了之前的方法,他们采用了 Householder 变换或反射。1970年,Golub 和 Christian Reinsch<ref>{{cite journal |last1=Golub |first1=G. H. |last2=Reinsch |first2=C. |title=Singular value decomposition and least squares solutions |journal=Numerische Mathematik |volume=14 |issue=5 |pages=403–420 |year=1970 |doi=10.1007/BF02163027 |mr=1553974 |s2cid=123532178 }}</ref> 发表了 Golub/Kahan 算法的一个变体,这个变体至今仍广泛应用。
 
计算奇异值分解的实用方法可追溯到1954-1955年 Kogbetliantz 和1958年 Hestenes 的工作<ref>{{cite journal |last1=Hestenes |first1=M. R. |title=Inversion of Matrices by Biorthogonalization and Related Results |journal=Journal of the Society for Industrial and Applied Mathematics |volume=6 |issue=1 |pages=51–90 |year=1958 |doi=10.1137/0106005 |jstor=2098862 |mr=0092215 }}</ref>。这些方法与使用平面旋转或 Givens 旋转的 Jacobi 特征值算法极为相似。然而,1965年 Gene Golub 和 William Kahan 发表的方法<ref>(Golub & Kahan 1965)</ref>取代了之前的方法,他们采用了 Householder 变换或反射。1970年,Golub 和 Christian Reinsch<ref>{{cite journal |last1=Golub |first1=G. H. |last2=Reinsch |first2=C. |title=Singular value decomposition and least squares solutions |journal=Numerische Mathematik |volume=14 |issue=5 |pages=403–420 |year=1970 |doi=10.1007/BF02163027 |mr=1553974 |s2cid=123532178 }}</ref> 发表了 Golub/Kahan 算法的一个变体,这个变体至今仍广泛应用。
    
==参考文献==
 
==参考文献==
2,533

个编辑