11 votos

Ejemplos para la prueba de la geométrica vs algebraica multiplicidad

Aquí puedes ver un supuestamente fácil la prueba de un conocido teorema de álgebra lineal:

enter image description here

Aunque sé que debo entender esto, yo no :-(

Obviamente hay muchos índices y esas cosas, así que no ver el bosque por los árboles.

Por favor, alguien podría darme algunos ejemplos que muestran lo que está pasando en esta prueba? Realmente necesito un paso a paso del recorrido que conecta a esta prueba con algunos ejemplos, supongo...

(También se podría dar referencias que proporcionan este tipo de paso-a-paso, lamentablemente la mayoría de las referencias que he encontrado eran incluso más abstracto...)

Gracias de antemano!

21voto

TVK Puntos 131

Olvídate de los índices y la aparentemente complicado apariencia de su imagen. Centremos nuestra atención en las ideas principales.

Si la multiplicidad geométrica de $\lambda$$r$, entonces, por definición, debes saber que hay $r$ linealmente independientes (eigen)vectores de satisfacciones $T(v_1)=\lambda\cdot v_1, ...,T(v_r)=\lambda\cdot v_r$. En la imagen, estas ecuaciones son sólo los primeros a $r$ ecuaciones de la primera gran sistema.

Ya que si el espacio vectorial finito $V$ debe tener alguna dimensión $n$ y tiene ya los $r$ linealmente independientes $v$ vectores, hay un teorema que garantiza que usted puede llenar en otras $s=n-r$ linealmente independientes nuevos vectores $w_1,...,w_s$, de modo que todas las $r+s=n$ independiente de vectores $v_1,...,v_r,w_1,...,w_s$ formar una base. El otro $s$ ecuaciones son por lo tanto de la acción/de la imagen de $T$ en estos otros $w$ vectores y tienen la forma de una combinación lineal de las $v,w$ vectores porque usted no sabe cómo $T$ actúa sobre ellos, pero por lo menos sabes que la imagen debe ser un vector de su espacio y por lo tanto se puede escribir como una combinación lineal de la base dada por el $v$ $w$ vectores. De ahí, por ejemplo $$T(w_1)=\text{some vector} =\sum_{i=1}^{r}a_i\cdot v_i+\sum_{i=1}^{s}b_i\cdot w_i$$ y lo mismo para las imágenes de los otros $T(w_j)$. Desde allí se $j=1,...,s$ vectores $w_j$, se obtiene el otro $s$ ecuaciones del sistema. Así, al igual que en el anterior ejemplo, que en general tienen diferentes coeficientes de $a_i,b_i$ por cada $T(w_j)$, por lo que puede hacer esta distinción explícita de hacer los coeficientes dependen de $j$ así, obtener el $a_{ij},b_{ij}$ que ves en la imagen (la $a_{ij}$ es el coeficiente de $T(w_j)$ $v_i$ vector de la base y el $b_{ij}$ es el coeficiente de $T(w_j)$ $w_i$ ). Por lo tanto, usted consigue su primer sistema de ecuaciones que es sólo la acción de la $T$ de su elegido base formada por $v$'s y $w$'s.

Ahora, usted puede organizar todo esto en notación matricial, ya que cualquier operador $T$ tiene asociada una matriz de $M$ en cada base de $V$. La acción $T(u)$ en general (columna) de vectores $u$ puede entonces escribirse $T(u) = M\cdot u$. Usted puede buscar en su libro o simplemente trabajar un poco para darse cuenta de que las columnas de la matriz $M$ deben ser las coordenadas de las imágenes de $T$ en todos los vectores de la base. Es decir, la primera columna de $M$ deben ser las coordenadas de los vectores $T(v_1)$, en la segunda columna los de $T(v_2)$, etc. Puesto que usted ha $r+s$ vectores de la base, hay $r+s$ columnas cada una con $r+s$ componentes: el primero, $r$ columnas son cada uno formado por las coordenadas de $T(v_i)$ sobre su base, y ya que son vectores propios, cada columna es 0 todos excepto para el $i$ posición donde debe escribir un $\lambda$, reflejando el hecho de que $T(v_i)=\lambda v_i$. De esta manera se obtiene la primera $r$ columnas de $M$ donde se puede ver fácilmente una diagonal de $\lambda$ que es una vertical de la forma de escribir los coeficientes de la primera $r$ ecuaciones de la anterior discutido sistema anterior. Del mismo modo, el resto de las $s$ columnas de $M$ son las coordenadas de los vectores $T(w_j)$. Por ejemplo, la columna de $r+1$ está dado por $T(w_1)$ y que acaba de escribir verticalmente los coeficientes $a_{i1}$, seguido por $b_{i1}$ y de manera similar con los otros.

Por lo tanto, se llega a una forma definitiva para su matriz $M$ que puede ser descompuesto en bloques simplemente mirando a su disposición de los coeficientes. Hay una plaza de $r\times r$ submatriz dada por la $\lambda$ diagonal de modo que se puede escribir como $\lambda \text{I}_r$ y debajo de ella un $s\times s$ cero submatriz escrito sólo $0$ en su imagen. El $r\times r$ coeficientes de $a_{ij}$ están organizados de manera similar en una matriz de $\text{A}$ e las $s\times s$ coeficientes de $b_{ij}$ en una matriz de $\text{B}$ (recuerde, escribimos los coeficientes en las columnas, es decir, verticalmente, que es la forma de su libro dice $\text{A}=(a_{ij})^t$, ya que el $^t$ significa que la transposición que convierte su horizontales de los coeficientes de su primer sistema de ecuaciones en posición vertical intercambiando filas por columnas). Entonces llegamos a $$M=\begin{pmatrix} \lambda\text{I}_r & A \\ 0 & B \end{pmatrix}$$

Por último, debemos estudiar el polinomio característico de a $M$ $p_c(M)=\det (M-x\text{I}_n)$ a establecer sus raíces y comprobar la algebraica multiplicidad de la raíz $x=\lambda$. Desde $M$ tiene un subdiagonal $\lambda\text{I}_r$, el factor determinante que tiene la forma de $$ \det(M-x\text{I}_n) = \begin{vmatrix} (\lambda-x)\text{I}_r & A \\ 0 & B-x\text{I}_s \end{vmatrix} $$ y podemos ampliar por las columnas de la primera diagonal de bloques para asegurarse de que $\lambda$ es una raíz del polinomio característico ya que recibimos $p_c(M)=(\lambda-x)^r\det(B-x\text{I}_s)=(\lambda-x\text{I}_r)^r p_c(B)$. Esto es debido al hecho de que el determinante de una matriz diagonal es el producto de los factores de su diagonal, lo que resulta en el monomio $(\lambda-x)$ con multiplicidad algebraica $r$.

Ahora, no sabemos nada más acerca de $B$, por lo que no podemos concluir nada acerca de su polinomio característico $p_c(B)$, lo $M$ ha autovalor $\lambda$ de la multiplicidad geométrica $r$, con AL MENOS algebraica multiplicidad $r$. Desde los autovalores de a $B$ es un problema nuevo, no sabemos si $p_c(B)$ tiene más raíces $\lambda$ poniendo más factores de $(\lambda-x)$ a $p_c(M)$. Por ejemplo, si $B$ ha autovalor $\lambda$ con multiplicidad algebraica $k$ obtendríamos $$ p_c(M)=(\lambda-x)^r p_c(B)=(\lambda-x)^r (\lambda-x)^k\cdots = (\lambda-x)^{r+k}\cdots $$ por lo tanto el establecimiento de una expresión algebraica multiplicidad de $(r+k)$ para el autovalor $\lambda$$M$. En el mejor de los casos $k=0$, es decir, $B$ no tiene autovalor $\lambda$, por lo que la multiplicidad algebraica en $M$ coincidiría con la multiplicidad geométrica $r$. Por lo tanto, $$\text{geometric multiplicity}= r\leqslant r+k=\text{algebraic multiplicity}\; .$$


Un Ejemplo:

Supongamos que usted tiene un operador $T:\mathbb{R}^4\rightarrow\mathbb{R}^4$ con sólo 2 vectores propios independientes $v_1, v_2$ para el autovalor $\lambda=2$, que es: $2=\dim\ker(T-\lambda\text{I}_4)=n-\text{rank}(T-\lambda\text{I}_4)= 4-2$ es su multiplicidad geométrica $m_g(\lambda)$. Por definición, debe tener ese $T(v_1)=\lambda v_1=2v_1$$T(v_2)=2v_2$.

Ahora $v_1,v_2$ son independientes, pero no lo suficiente para formar una base de $V=\mathbb{R}^4$ desde $n=\dim\mathbb{R}^4=4$, por lo que necesita otro $n-m_g(\lambda)=2$ independiente de vectores $w_1,w_2$, de modo que el conjunto de $\{v_1,v_2,w_1,w_2\}$ es linealmente independientes y por lo tanto una base de $\mathbb{R}^4$. Siempre se puede encontrar $w$'s como usted sabe, la base canónica $\{e_1,e_2,e_3,e_4\}=\{(1,0,0,0),(0,1,0,0)...\}$ (pensar en ellos como columnas) en la que los vectores propios $v_1,v_2$ puede ser ampliada como combinación lineal. No es difícil ver que se puede intercambiar $e_i$ desde el set de $v_1$, siempre que permanezcan independientes (desde $v$ es un valor distinto de cero combinación lineal de las $e$, se puede resolver para uno y expresar esta particular $e_i$ como una combinación lineal de $v$ y el restante $e$'s). Este proceso le da una nueva base $\{v_1,e_2,e_3,e_4\}$ (tengo contados de ellos, de modo que el $e_1$ fue el intercambiados, pero no tiene que ser). La generalización de este razonamiento puede completar cualquier conjunto independiente de vectores en una base. Así, en nuestro ejemplo, estamos seguros de una base de $\mathbb{R}^4$ puede ser dado por el conjunto de vectores $\{v_1,v_2,w_1,w_3\}$ (utilizamos general $w$ desde el comienzo de base no tiene que ser el canónico o podemos necesitar hacer combinaciones lineales a lo largo del proceso de cambio).

Para conocer la acción de un operador $T$ sobre cualquier vector $u=c_1v_1+c_2v_2+c_3w_1+c_4w_2$ necesitamos saber su acción sobre los vectores de una base, ya que estamos tratando con operadores lineales $T(au+bv)=aT(u)+bT(v)$: $$ T(u)=c_1T(v_1)+c_2T(v_2)+c_3T(w_1)+c_4T(w_2) $$ Así que tenemos la $T(v_1),T(v_2),T(w_1),T(w_2)$ como vectores en la opción de base (es decir, el $a_{ij}$ $b_{ij}$ de la teoría anterior). Con el fin de trabajar con un ejemplo concreto, supongamos que la acción de la $T$ está dado por las siguientes ecuaciones, que es un ejemplo particular del sistema de ecuaciones de la imagen: $$ \begin{align*} & T(v_1)=\lambda v_1=2v_1 \\ & T(v_2)=\lambda v_2=2v_2 \\ & T(w_1)=1\cdot v_1+2\cdot v_2 + 1\cdot w_1 + \left(\frac{-2}{3}\right)\cdot w_2 \\ & T(w_2)=3\cdot v_1+4\cdot v_2 + 3\cdot w_1 + 4\cdot w_2 \end{align*} $$

Esto nos lleva a la representación de la matriz de $T$, ya que los vectores $T(v_1)...$ visto como columnas de una matriz $M=(T(v_1),T(v_2),T(w_1),T(w_2))$ dar el derecho de expresión por la acción de la $T$ sobre cualquier vector $u$ escrito arriba: $$ T(u)=M\cdot u= (T(v_1),T(v_2),T(w_1),T(w_2))\cdot \begin{pmatrix} c_1\\ c_2\\ c_3\\ c_4 \end{pmatrix} $$ Así, en nuestro ejemplo, podemos llegar a la matriz con el mencionado formulario $$ M=\left( \begin{array}{cccc} 2 & 0 & 1 & 3 \\ 0 & 2 & 2 & 4 \\ 0 & 0 & 1 & 3 \\ 0 & 0 & -\frac{2}{3} & 4 \end{array} \right) $$ Observe que cada columna de la matriz anterior está formada por los números que son los coeficientes de las filas del sistema de ecuaciones vectoriales dado anteriormente.

Finalmente, para el estudio de la multiplicidad de $\lambda=2$ necesitamos para obtener el polinomio característico de a $M$ que es $$ p_c(M)= \begin{vmatrix} 2-x & 0 & 1 & 3 \\ 0 & 2-x & 2 & 4 \\ 0 & 0 & 1-x & 3 \\ 0 & 0 & -\frac{2}{3} & 4-x \end{vmatrix} = (2-x)^2 \begin{vmatrix} 1-x & 3 \\ -\frac{2}{3} & 4-x \end{vmatrix} =(2-x)^2 p_c(B) $$ con la esquina inferior derecha del bloque de $B=\left( \begin{array}{cccc} 1 & 3 \\ -\frac{2}{3} & 4 \end{array} \right)$.

Sin embargo, $B$ sí ha polinomio característico $p_c(B)=(2-x)(3-x)$, es decir, $\lambda=2$ también es un valor propio de B (tenga en cuenta que este hecho es otro problema en un espacio diferente: $\mathbb{R}^2$). Por lo tanto llegamos que el polinomio característico de a $M$ y por lo tanto de $T$ ($\lambda=2$): $$ p_c(T)=p_c(M)=(2-x)^2(2-x)(3-x)=(2-x)^3(3-x)\Rightarrow m_a(\lambda)=3 $$ de donde mi teoría sobre $r=2$, $k=1$ que le da una expresión algebraica multiplicidad $m_g(2)$$3$, mientras que la multiplicidad geométrica es $2$ desde $M$ no tiene más de 2 vectores propios de valor propio 2. De hecho, el número de independientes de autovectores en ese caso es el número de completamente de cero filas o columnas, colocando $x=\lambda=2$ $$ M-2\text{I}dimm_4=\left( \begin{array}{cccc} 0 & 0 & 1 & 3 \\ 0 & 0 & 2 & 4 \\ 0 & 0 & -1 & 3 \\ 0 & 0 & -\frac{2}{3} & 2 \end{array} \right)\Rightarrow m_g(\lambda)=\dim\ker(M-\lambda\text{I}dimm_4)=4-2 $$ desde $\text{rank}(M-\lambda\text{I}_4)=2$ como las dos últimas columnas permanecen independientes (y se utilizó la Clasificación de Nulidad teorema, la fórmula mencionada en el primer párrafo del ejemplo).

10voto

Xetius Puntos 10445

Si la multiplicidad geométrica de $\lambda\in\mathbb C$ $n$a$n$ matriz $A\in M_n(\mathbb C)$ al menos $k$, entonces no se $k$ linealmente independiente de vectores propios $v_1$, $v_2$, $\dots$, $v_k$ correspondiente al autovalor $\lambda$. En otras palabras, el sistema de ecuaciones $$(\lambda I-A)x=0$$ has a solution space of dimension at least $k$. This means that the rank of $\lambda I-a$ is at most $n-k$. It follows that by doing row operations (both permutating rows and adding to a row a multiple of another row) you can transform $\lambda I-a$ into a matrix $B$ whose last $k$ filas son cero.

Ahora vamos a $t$ ser una variable (en oposición a un escalar, como $\lambda$) y realizar exactamente la misma fila de operaciones sobre la matriz $t I-A$, cuyas entradas son ahora polinomios en $t$. Esto le da una matriz de $C$, con entradas también polinomios en $t$, que se convierte en $B$ al evaluar estos polinomios en $\lambda$. En particular, todas las entradas de la matriz de $C$ en los últimos $k$ filas son polinomios que se desvanecen en $\lambda$, por lo que son divisibles por $t-\lambda$. Es inmediato luego de que el determinante de a $C$ es divisible por $(t-\lambda)^k$. De hecho, se puede extraer el factor común $t-\lambda$ de cada una de las filas fuera de la determinante.

Desde $t I-A$ $C$ tienen el mismo determinante, esto significa que el polinomio característico de a $A$, es decir,$\det(t I-A)$, es divisible por $(t-\lambda)^k$.

Aviso que este no es el mismo argumento como en la imagen que has publicado. A mí me gusta mucho más, aunque :)

 

Un ejemplo: Supongamos $$A=\left( \begin{array}{cccc} -1 & 2 & 0 & 1 \\ -3 & 4 & 0 & 1 \\ -\frac{2}{3} & 0 & 2 & \frac{2}{3} \\ -3 & 2 & 0 & 3 \end{array} \right).$$ If on the matrix $2 I-a$ I substract the first row from the second and the fourth, then substract $2/9$ times the first row from the third, and finally interchange the second and third rows, I get the matrix $$\a la izquierda( \begin{array}{cccc} -3 & 2 & 0 & 1 \\ 0 & -\frac{4}{9} & 0 & \frac{4}{9} \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right).$$ This is a matrix of rank $2$ ---and the last two rows zero--- so in particular the geometric multiplicity of $2$ as an eigenvalue of $Un$ is $2$.

Si yo ahora repita las mismas operaciones en la matriz $tI-A$, tengo $$\left( \begin{array}{cccc} -t-1 & 2 & 0 & 1 \\ -\frac{2}{9} (-t-1)-\frac{2}{3} & -\frac{4}{9} & 2-t & \frac{4}{9} \\ t-2 & 2-t & 0 & 0 \\ t-2 & 0 & 0 & 2-t \end{array} \right).$$ As predicted above, this matrix has in its last two rows polynomials which vanish at $2$. Computing the determinant $$\izquierda| \begin{array}{cccc} -t-1 & 2 & 0 & 1 \\ -\frac{2}{9} (-t-1)-\frac{2}{3} & -\frac{4}{9} & 2-t & \frac{4}{9} \\ t-2 & 2-t & 0 & 0 \\ t-2 & 0 & 0 & 2-t \end{array} \right|$$ is very easy, and you can actually see without computing it in full that it is a polynomial divisible by $(t-2)^2$. This means that the algebraic multiplicity of $2$ as an eigenvalue is at least $2$.

3voto

case nelson Puntos 1136

Básicamente, la idea es que en las respuestas anteriores. Sin embargo, creo que la siguiente prueba es más fácil de entender. Vamos a probar lo siguiente:

Hecho: Supongamos $\lambda_0$ es un autovalor de a $A$ y con multiplicidad geométrica $k$, entonces su multiplicidad algebraica es, al menos,$k$.

Prueba: Por supuesto, podemos encontrar una ortonormales base para el subespacio $\mathrm{ker}(A-\lambda_0 I)$. Nos deja denotar ellos por $u_1,u_2,\cdots,u_k$. A continuación, podemos encontrar una base ortonormales para $\mathbb{R}^n$ al completar esta base. Denotar ellos por $\{u_1,u_2,\cdots,u_k,u_{k+1},\cdots,u_n\}$. Denotar la matriz formada por estos vectores (como columnas) por $S$. A continuación, vamos a $\lambda$ ser una variable, podemos comprobar fácilmente $$ (A-\lambda I)S = \pmatrix{(\lambda_0-\lambda)u_1, \cdots (\lambda_0-\lambda)u_k, v_{k+1}(\lambda),\cdots, v_n(\lambda)}. $$ El lado derecho de arriba es una matriz cuya primera $k$ columnas son de la forma $$ (\lambda_0-\lambda) u_j, j=1,\cdots,k. $$ Las columnas restantes tienen entradas dependiendo de $\lambda$ (de hecho, las entradas se afín a las funciones de $\lambda$) pero no nos importa su forma exacta.

Tomar el factor determinante en la primera ecuación en la prueba. Tenemos $$ \det(A-\lambda I) \cdot \det(S) = (\lambda_0-\lambda)^k \det\pmatrix{u_1,\cdots,u_k,v_{k+1}(\lambda),\cdots,v_n(\lambda)} = (\lambda_0-\lambda)^k g(\lambda) $$ donde $g(\lambda)$ es un polinomio en a $\lambda$.

Desde $\det(S) = \pm 1$, vemos claramente que el $\lambda_0$ es una raíz del polinomio característico y su multiplicidad algebraica es al menos k. QED

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X