人工智能之数学基础:幂法和反幂法求特征值和特征向量
本文重点
特征值和特征向量是矩阵的重要性质,我们前面学习了矩阵的正交分解,要想完成正交分解需要求出一个矩阵的特征值和特征向量。有的时候,我们只需要求出一个矩阵的最大的特征值以及矩阵的最小特征值,它们以及它们对应的特征向量具有特殊的含义,下面我们介绍两种方法,这两种方法可以帮助我们快速求出一个矩阵的最大特征值和最小特征值。
什么是最大特征值和最小特征值?
按模最小的特征值就是最小特征值,按模最大的特征值就是最大特征值
幂法和反幂法的介绍
幂法和反幂法其实是一样的,反幂法要求矩阵是可逆的。幂法是计算最大特征值,而反幂法是计算最小特征值,幂法和反幂法都应用了迭代的思想。
幂法定理
我们可以通过定理可以获取到当一个矩阵具有n个线性无关的特征向量的时候,那么我们的最大的λ1可以通过(8.3)的方式求解出来,我们可以对其进行推导
幂法
幂法的思想是初始化一个非零向量V0,然后通过矩阵A构造一向量序列{Vk}