特征值在
动态问题
中具有十分重要的地位,基于$ Ax=\lambda x $,我们简要介绍一下特征值的相关概念。
以对矩阵A的加权 $ A,A^2,A^3,… $ 为例,假设你需要需要得到 $ A^{100} $。如下所示,在数次加权之后 $ A^{100} $ 会接近一个固定的值
\(\left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right]\)
。
eg.
$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ A^2 = \left[ \begin{matrix} 0.7 & 0.45 \\ 0.3 & 0.55 \end{matrix} \right] $ $ A^3 = \left[ \begin{matrix} 0.650 & 0.525 \\ 0.350 & 0.475 \end{matrix} \right] $ … $ A = \left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right] $
这里的
\(A^{100}\)
是通过
\(A\)
的特征值得到的,而不是通过对100次连乘得到的。
在这里先给出特征矩阵和特征值的定义:
The basic equation is $ Ax = \lambda x $, The number $ \lambda $ is