特征值(Eigenvalues)和特征向量(Eigenvectors)的简单介绍

  • Post author:
  • Post category:其他


特征值在

动态问题

中具有十分重要的地位,基于$ Ax=\lambda x $,我们简要介绍一下特征值的相关概念。

以对矩阵A的加权 $ A,A^2,A^3,… $ 为例,假设你需要需要得到 $ A^{100} $。如下所示,在数次加权之后 $ A^{100} $ 会接近一个固定的值

\(\left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right]\)

eg.

$ A = \left[ \begin{matrix} 0.8 & 0.3 \\ 0.2 & 0.7 \end{matrix} \right] $ $ A^2 = \left[ \begin{matrix} 0.7 & 0.45 \\ 0.3 & 0.55 \end{matrix} \right] $ $ A^3 = \left[ \begin{matrix} 0.650 & 0.525 \\ 0.350 & 0.475 \end{matrix} \right] $ … $ A = \left[ \begin{matrix} 0.6 & 0.4 \\ 0.4 & 0.6 \end{matrix} \right] $

这里的

\(A^{100}\)

是通过

\(A\)

的特征值得到的,而不是通过对100次连乘得到的。

在这里先给出特征矩阵和特征值的定义:

The basic equation is $ Ax = \lambda x $, The number $ \lambda $ is