SVD定理

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
相信未来讨论 | 贡献2024年12月14日 (六) 16:27的版本 (建立内容为“奇异值分解定理 (重定向自 SVD定理、矩阵奇异值分解) 奇异值分解定理(Singular Value Decomposition Theorem,简称SVD定理)是…”的新页面)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳到导航 跳到搜索

奇异值分解定理 (重定向自 SVD定理、矩阵奇异值分解)

奇异值分解定理(Singular Value Decomposition Theorem,简称SVD定理)是线性代数中的一个基本定理,它揭示了任意矩阵的几何本质。

几何解释 从几何角度来看,对于任意线性映射 [math]\displaystyle{ T: K^n \to K^m }[/math],我们总能找到 [math]\displaystyle{ K^n }[/math][math]\displaystyle{ K^m }[/math] 的规范正交基,使得:

[math]\displaystyle{ T }[/math][math]\displaystyle{ K^n }[/math] 中的第 [math]\displaystyle{ i }[/math] 个基向量映射到 [math]\displaystyle{ K^m }[/math] 中第 [math]\displaystyle{ i }[/math] 个基向量的非负实数倍 剩余的基向量被映射到零向量 形式表述 任意矩阵 [math]\displaystyle{ A \in \mathbb{R}^{m \times n} }[/math] 可以分解为:

[math]\displaystyle{ A = U\Sigma V^T }[/math]

其中:

[math]\displaystyle{ U \in \mathbb{R}^{m \times m} }[/math] 是正交矩阵 [math]\displaystyle{ V \in \mathbb{R}^{n \times n} }[/math] 是正交矩阵 [math]\displaystyle{ \Sigma \in \mathbb{R}^{m \times n} }[/math] 是对角矩阵,对角线上的元素 [math]\displaystyle{ \sigma_i }[/math] 称为奇异值,且满足 [math]\displaystyle{ \sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r \geq 0 }[/math] 重要性质

奇异值 [math]\displaystyle{ \sigma_i }[/math] 是唯一的 矩阵 [math]\displaystyle{ A }[/math] 的秩等于非零奇异值的个数 [math]\displaystyle{ U }[/math] 的列向量称为左奇异向量 [math]\displaystyle{ V }[/math] 的列向量称为右奇异向量