特征向量

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
相信未来讨论 | 贡献2024年12月22日 (日) 13:56的版本 (建立内容为“在线性代数中,特征向量(或本征向量)是指在给定线性变换下方向保持不变(或反向)的向量。更准确地说,线性变换<ma…”的新页面)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳到导航 跳到搜索

在线性代数中,特征向量(或本征向量)是指在给定线性变换下方向保持不变(或反向)的向量。更准确地说,线性变换[math]\displaystyle{ T }[/math]的特征向量[math]\displaystyle{ \mathbf{v} }[/math]在该线性变换作用下只会被一个常数因子[math]\displaystyle{ \lambda }[/math]所缩放:[math]\displaystyle{ T\mathbf{v} = \lambda\mathbf{v} }[/math]。这个相应的缩放因子[math]\displaystyle{ \lambda }[/math](可能为负)就被称为特征值、特征根或本征值。

从几何角度来看,向量是具有大小和方向的多维量,通常用箭头表示。线性变换会对其作用的向量进行旋转、拉伸或剪切。特征向量就是那些在变换下只发生拉伸而不发生旋转或剪切的向量。相应的特征值就是特征向量被拉伸或压缩的倍数。如果特征值为负,则特征向量的方向会发生反转。

线性变换的特征向量和特征值能够刻画该变换的本质特征,因此它们在线性代数的所有应用领域中都发挥着重要作用,从地质学到量子力学都是如此。特别地,在许多情况下,一个系统可以用线性变换来表示,而该变换的输出又会作为同一变换的输入(反馈)。在这种应用中,最大特征值尤其重要,因为它决定了系统在多次应用线性变换后的长期行为,而相应的特征向量则代表了系统的稳态。