“SVD定理”的版本间的差异

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
跳到导航 跳到搜索
(重定向页面至SVD分解
标签新重定向
第1行: 第1行:
奇异值分解定理(Singular Value Decomposition Theorem,简称SVD定理)是线性代数中的一个基本定理,它揭示了任意矩阵的几何本质。
+
#REDIRECT[[SVD分解]]
 
 
几何解释
 
从几何角度来看,对于任意线性映射 <math>T: K^n \to K^m</math>,我们总能找到 <math>K^n</math> 和 <math>K^m</math> 的规范正交基,使得:
 
 
 
<math>T</math> 将 <math>K^n</math> 中的第 <math>i</math> 个基向量映射到 <math>K^m</math> 中第 <math>i</math> 个基向量的非负实数倍
 
剩余的基向量被映射到零向量
 
形式表述
 
任意矩阵 <math>A \in \mathbb{R}^{m \times n}</math> 可以分解为:
 
 
 
<math>A = U\Sigma V^T</math>
 
 
 
其中:
 
 
 
<math>U \in \mathbb{R}^{m \times m}</math> 是正交矩阵
 
<math>V \in \mathbb{R}^{n \times n}</math> 是正交矩阵
 
<math>\Sigma \in \mathbb{R}^{m \times n}</math> 是对角矩阵,对角线上的元素 <math>\sigma_i</math> 称为奇异值,且满足 <math>\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r \geq 0</math>
 
重要性质
 
 
 
奇异值 <math>\sigma_i</math> 是唯一的
 
矩阵 <math>A</math> 的秩等于非零奇异值的个数
 
<math>U</math> 的列向量称为左奇异向量
 
<math>V</math> 的列向量称为右奇异向量
 

2024年12月14日 (六) 16:32的版本

重定向至: