添加1,287字节
、 2024年12月14日 (星期六)
奇异值分解定理
(重定向自 SVD定理、矩阵奇异值分解)
奇异值分解定理(Singular Value Decomposition Theorem,简称SVD定理)是线性代数中的一个基本定理,它揭示了任意矩阵的几何本质。
几何解释
从几何角度来看,对于任意线性映射 <math>T: K^n \to K^m</math>,我们总能找到 <math>K^n</math> 和 <math>K^m</math> 的规范正交基,使得:
<math>T</math> 将 <math>K^n</math> 中的第 <math>i</math> 个基向量映射到 <math>K^m</math> 中第 <math>i</math> 个基向量的非负实数倍
剩余的基向量被映射到零向量
形式表述
任意矩阵 <math>A \in \mathbb{R}^{m \times n}</math> 可以分解为:
<math>A = U\Sigma V^T</math>
其中:
<math>U \in \mathbb{R}^{m \times m}</math> 是正交矩阵
<math>V \in \mathbb{R}^{n \times n}</math> 是正交矩阵
<math>\Sigma \in \mathbb{R}^{m \times n}</math> 是对角矩阵,对角线上的元素 <math>\sigma_i</math> 称为奇异值,且满足 <math>\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r \geq 0</math>
重要性质
奇异值 <math>\sigma_i</math> 是唯一的
矩阵 <math>A</math> 的秩等于非零奇异值的个数
<math>U</math> 的列向量称为左奇异向量
<math>V</math> 的列向量称为右奇异向量