3 votos

¿Dónde se $\Lambda=P^{-1}AP$?

¿Cómo se deriva el hecho de que si una matriz es diagonalizable, entonces podemos diagonalize con la fórmula $\Lambda = P^{-1}AP$ donde $P$ es un bloque de la matriz cuyas columnas son los vectores propios de a $A$?

Puedo ver que si usted comienza con $A$ y multiplicar por $P=\begin{bmatrix} v_1 & v_2 & \cdots & v_k\end{bmatrix}$, entonces termina con $AP = \begin{bmatrix} \lambda_1v_1 & \lambda_2v_2 & \cdots & \lambda_kv_k\end{bmatrix}$. No veo por qué el próximo paso debe ser la izquierda multiplicar por $P^{-1}$.

Además, incluso si la fórmula $\Lambda = P^{-1}AP$ sostiene que, ¿cómo podemos saber que esto es sólo por eso que para producir una matriz diagonal de $A$? Quizás $A$ es también similar a una matriz diagonal cuyas entradas son no los autovalores de a $A$ (pero sigue siendo el producto de cuya diagonal de las entradas es el factor determinante de la $A$). ¿Cómo podemos demostrar que esto no es posible, o si es posible, ¿por qué no lo ha mencionado alguna vez?

2voto

mookid Puntos 23569

Deje $(e_1 \dots e_n)$ nosotros de la forma habitual, y $X_k$ $k$ésima columna de la matriz $X$.

Si $P^{-1}AP = D$ es diagonal, entonces, toma el $k$ésima columna de a $P$ se obtiene que: $$ (P^{-1}AP)_k = P^{-1}AP_k = D_k = \lambda_k e_k \\ \implica AP_k = \lambda_k\times P e_k = \lambda_k P_k $$ Así que las columnas de a $P$ son vectores propios de a $A$.

1voto

rajb245 Puntos 290

Aquí está la $2 \times 2$ de los casos se puede generalizar:

Supongamos $A$ es arbitraria $2 \times 2$ matriz con dos autovalores, $\lambda_1, \lambda_2$, y, por tanto, dos correspondientes vectores propios, $v_1$$v_2$. Definir una matriz $P$ cuyas columnas son los dos vectores propios,

\begin{equation} P =\left( \begin{matrix} v_1 & v_2 \\ | & | \end{de la matriz} \right) \end{equation} donde los barras verticales indican la columna.

Entonces la acción de la $A$ $P$ es el mismo que el de la acción de $A$ en cada una de las columnas. Como las columnas también son vectores propios se puede escribir

\begin{equation} AP =\left( \begin{matrix} Av_1 & Av_2 \\ | & | \end{de la matriz} \right) = \left( \begin{matrix} \lambda_1v_1 & \lambda_2v_2 \\ | & | \end{de la matriz} \right) = \underbrace{\left( \begin{matrix} v_1 & v_2 \\ | & | \end{de la matriz} \right)}_{P} \underbrace{\left( \begin{matrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{de la matriz} \right)}_{\Lambda} \end{equation}

donde $\Lambda$ es la matriz diagonal de valores propios. Es decir, $AP = P\Lambda$. Como $P$ es invertible (por qué?) podemos escribir

\begin{equation} A = P\Lambda P^{-1} \end{equation}

o

\begin{equation} \Lambda = P^{-1}A P \end{equation}


En la singularidad de la matriz diagonal $\Lambda$, ver a Ian del comentario anterior.

1voto

Bernard Puntos 34415

Esto no tiene nada que ver con los vectores propios: es el general de cambio de base de la fórmula lineal de los mapas.

Permítanme dar algunos detalles: supongamos que una lineal mapa de $f$ ha matriz $A$ en alguna base $\mathcal B$. Deje $mathcal B'$ otro; denotamos como $P$ la matriz con un vector de columna $C_i$ igual a las coordenadas (en base a $\mathcal B$) $i$- ésimo vector de la $\mathcal B'$. $P$ se llama matriz de cambio de base de a $\mathcal B$ $\mathcal B'$.

Ahora para cualquier vector de $x$ con columna de la matriz $X$ en base $\mathcal B$, $X'$ en $\mathcal B'$, se tiene: $$X=PX'$$ Deje $Y$ el vector columna de $f(x)$ en base $\mathcal B$. $Y$ y $X$ están relacionados por $Y=AX$. Del mismo modo, si $Y'$ es el vector columna de $f(x)$ base $\mathcal B'$, uno ha $Y=PY'$.

Por lo tanto podemos escribir: $$Y=PY'=AX=A(PX'),\enspace\text{whence}\quad Y'=(P^{-1}AP)X$$ Esto demuestra que la matriz de $f$ base $\mathcal B'$ es: $$A'=P^{-1}AP.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X