34 votos

Si dos matrices tienen los mismos valores propios y los vectores propios, ¿son iguales?

La pregunta surge de un problema con el que me tropecé mientras trabajaba con los valores propios. Pedir que se explique por qué $A^{100}$ está cerca de $A^ \infty $

$$A= \left [ \begin {array}{cc} .6 & .2 \\ .4 & .8 \end {array} \right ] $$ $$A^ \infty = \left [ \begin {array}{cc} 1/3 & 1/3 \\ 2/3 & 2/3 \end {array} \right ] $$ La respuesta es que (saltándose los cálculos) que $A$ tiene valores propios $ \lambda_1 =1$ y $ \lambda_2 =0.4$ con eigenvectores $x_1=(1,2)$ y $x_2=(1,-1)$ y $A^{ \infty }$ tiene valores propios $ \lambda_1 =1$ y $ \lambda_2 =0$ con los mismos vectores propios, mientras que $A^{100}$ tiene valores propios $ \lambda_1 =1$ y $ \lambda_2 =(0.4)^{100}$ con los mismos eigenvectores que los otros, concluyendo que como los eigenvectores son los mismos y los eigenvalores se comparan estrechamente $A^ \infty $ y $A^{100}$ deben estar cerca.

Creando la base de mi pregunta, ¿cómo se puede concluir que dos matrices con los mismos vectores propios y valores propios cercanos/iguales son cercanos/iguales entre sí?

Mi pensamiento inicial es que dos matrices con eigenvectores y eigenvalores iguales fundan la base para la misma transformación, por lo que son iguales - ¿Estoy completamente fuera?

55voto

Michael Hardy Puntos 128804

Las dos matrices $\left[ \begin{array}{cc} 1 & 0 \\ 1 & 1 \end{array} \right] $ y $\left[ \begin{array}{cc} 1 & 0 \\ 200 & 1 \end{array} \right] $ ambos tienen los mismos valores y vectores propios, pero no son ni mucho menos iguales entre sí.

Pero si un $n\times n$ La matriz tiene $n$ valores propios distintos o tiene un conjunto de vectores propios que forman una base de $\mathbb R^n,$ entonces la única matriz que tiene los mismos pares propios, es decir, los mismos vectores propios, cada uno con el mismo valor propio, es esa misma matriz. Eso es porque una transformación lineal está completamente determinada por lo que hace con una base.

16voto

Anders Beta Puntos 8

Si, como suponen las otras respuestas, hay $n$ vectores propios independientes, es decir, si las matrices son diagonalizables, entonces la respuesta a su pregunta es sí; utilizando la $n$ eigenvectores independientes como base vemos que las matrices (en esa base) son idénticas y por tanto son idénticas en todas las bases. Sin embargo, si las matrices no son diagonalizables, es decir, si no hay $n$ eigenvectores independientes, entonces las matrices no son necesariamente las mismas. Por ejemplo:

$$A = \begin{pmatrix} 1&1\\ 0&1\\ \end{pmatrix}\;\;\text{and}\;\; B = \begin{pmatrix} 1&2\\ 0&1\\ \end{pmatrix}\,, $$

son matrices diferentes que tienen los mismos vectores propios con los mismos valores propios ( $1$ es el único valor propio y su espacio propio es unidimensional).

15voto

Pablo H Puntos 11

Además de necesitar una base completa de vectores propios (como han señalado otros), el orden es importante si su "igualdad" es de componentes. Las dos matrices siguientes tienen el mismo conjunto de valores propios y el mismo conjunto de vectores propios:

$$A = \begin{pmatrix} 2&0\\ 0&1\\ \end{pmatrix}\;\;\text{and}\;\; B = \begin{pmatrix} 1&0\\ 0&2\\ \end{pmatrix}\,. $$

(A la inversa, tener diferentes vectores propios no significa necesariamente que las matrices sean diferentes. Cualquier base de cada eigenespacio funciona como eigenvectores. (Piense en escalas o en valores propios repetidos).

7voto

S. Dolan Puntos 296

Si dos $n$ por $n$ matrices, $A$ y $B$ tienen el mismo $n$ vectores propios linealmente independientes, correspondientes a los mismos valores propios, entonces la matriz de vectores propios, $U$ se puede utilizar para diagonalizar ambas matrices $$U^{-1}AU= U^{-1}BU=D$$ donde $D$ es la matriz de valores propios. Así que, en este caso, $A=B$ como usted sospechaba.

5voto

rretzbach Puntos 116

En $\mathbb{R}^n$ , tratando con $n \times n$ matrices $A,B$ asumiendo que tienen el mismo $n$ vectores propios y valores propios correspondientes $a_1, \ldots, a_1$ y $b_1, \ldots, b_n$ respectivamente, se puede descomponer $$ A = VD_AV^T \quad \text{and} \quad B = VD_BV^T, $$ donde $D_A$ y $D_B$ son matrices diagonales con diagonal de $a_1, \ldots, a_n$ y $b_1, \ldots, b_n$ respectivamente. Por lo tanto, $$ \Delta = A - B = V \left(D_A - D_B\right) V^T, $$ y como $(a_i) \to (b_i)$ la matriz de diferencias $\Delta \to 0_{n \times n}$ .

Un argumento similar puede hacerse para las matrices rectangulares utilizando la descomposición de valores singulares.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X