2 votos

¿Intuición detrás de esta construcción en relación con los valores propios?

En "Methods of Nonlinear Analysis: Applications to Differential Equations" (P. Drabek, J. Milota), presentan la siguiente construcción:

Sea $A\in L(X)$ y elija $\lambda\in\sigma(A)$ a continuación, establezca $N_k = \text{ker}(\lambda I-A)^k$ . Es evidente que $N_k\subset N_{k+1}$ y no pueden ser todas distintas. Si $N_k = N_{k+1}$ entonces $N_k = N_i$ para todos $i>k$ . Denotemos $n(\lambda)$ el menos tal $k$ a $$ N(\lambda) = N_{n(\lambda)},\qquad R(\lambda)=\text{Im}(\lambda I - A)^{n(\lambda)} $$ Entonces ambos $N(\lambda)$ y $R(\lambda)$ son $A$ -y la descomposición $X = N(\lambda)\oplus R(\lambda)$ retenciones.

Aquí $X$ es un espacio vectorial, $L(X)$ es el conjunto de transformaciones lineales sobre $X$ a sí misma, $\sigma(A)$ es el espectro de $A$ (el conjunto de valores propios de $A$ ), y un $A$ -subespacio invariante $S$ de $X$ es tal que $A(S)\subset S$ .

¿Qué intuición hay detrás de esta construcción? Al principio pensé que tal vez $n(\lambda)$ correspondía a la multiplicidad del valor propio $\lambda$ pero en realidad parece que la multiplicidad de $\lambda$ sólo corresponde a la dimensión de $\text{ker}(\lambda I - A)$ y no tiene nada que ver realmente con el $k$ poder de $\lambda I - A$ . ¿Cómo se les ocurrió esta construcción, y cuál es la idea intuitiva para $n(\lambda)$ , $N(\lambda)$ y $R(\lambda)$ ?

Edita: Siguiendo con el texto, el $n(\lambda)$ es la multiplicidad de $\lambda$ lo que significa que mi interpretación de la multiplicidad era completamente errónea. Pensaba que la multiplicidad de un valor propio era el número de vectores propios linealmente independientes correspondientes a ese valor propio, pero parece que no. En cambio, parece ser sólo el exponente de $(t-\lambda)$ en el polinomio característico de $A$ . Entonces mi confusión radica en mi forma de entender la multiplicidad.

2voto

Vincent Puntos 635

Quería escribir una respuesta muy larga, pero se está haciendo tarde aquí en Europa y me estoy durmiendo un poco, así que sólo te voy a dar una indicación de cómo encontrar más información.

Primero damos por sentado el resultado como teorema. Ahora dejemos que $\mu$ sea un valor propio diferente de $A$ . Es fácil ver que $R(\lambda)$ se asigna a sí misma mediante todas las potencias de $(A - \mu I)$ por lo que podemos repetir el teorema con $X$ sustituido por $R(\lambda)$ y haciendo esto una y otra y otra vez terminamos con una descomposición

$$X = N(\lambda) \oplus N(\mu) \oplus N(\nu) \oplus ... = \bigoplus_{\lambda' \in \sigma(A)} N(\lambda')$$

Especialmente en el caso de que $X$ es de dimensión finita es muy agradable de trabajar porque no tenemos problemas para interpretar el símbolo de la gran suma directa.

El espacio $N(\lambda)$ se denominan eigenspace generalizado en el valor propio $\lambda$ . Lo que es importante tener en cuenta es que cada uno de los espacios propios generalizados se mapea en sí mismo mediante $A$ para que podamos estudiar $A$ estudiando su acción sobre cada uno de estos espacios por separado.

La descomposición de $X$ en eigenspaces generalizados se denomina Descomposición de Jordania (al menos en el caso de dimensión finita). Si se elige una base de $X$ donde cada vector base se encuentra en un espacio eigénico generalizado (y los elementos base sucesivos se encuentran en el mismo espacio eigénico), entonces la matriz que representa a $A$ se convierte en una matriz de bloques en la que sólo los bloques "diagonales" son distintos de cero. (Esto es una reafirmación del hecho de que $A$ mapea los eigenspaces gen. a sí mismos). Ahora bien, si eliges tu base de tal manera que estos bloques diagonales se vean realmente bien, obtienes el Formulario Jordan Cannonical de $A$ .

Supongo que si buscas en google cualquiera de los términos en negrita encontrarás alguna explicación de cómo se le ocurrió a la gente o cuál es la intuición. Si eso falla, tal vez escriba algo al respecto yo mismo mañana.

EDITADO DESPUÉS DE LEER TU EDICIÓN: dos términos más para buscar en Google multiplicidad geomética y multiplicidad algebraica . Lo primero es lo que pensabas que era la multiplicidad y lo segundo es lo que ahora has descubierto que es. El hecho de que la gente inventara palabras para facilitar la discusión sobre la diferencia indica que tu idea no era "completamente errónea", sólo incompleta.

1voto

Hurkyl Puntos 57397

Quizá se entienda mejor viendo ejemplos. Los casos más sencillos son las matrices nilpotentes, cuyo único valor propio es cero, con multiplicidad igual al rango de la matriz.

$$ A = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} \qquad n(0) = 1$$

$$ B = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \qquad n(0) = 2$$

$$ C = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \qquad n(0) = 3$$

$$ D = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} \qquad n(0) = 2$$

$$ E = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} \qquad n(0) = 1$$

En todos los casos, $n(0)$ es el exponente más pequeño que potencia la matriz a cero. Por ejemplo $C^2 \neq 0$ pero $C^3 = 0$ .

En cada ejemplo, cada es un vector nulo (generalizado), ya que la aplicación repetida de la matriz a cualquier vector producirá finalmente el vector cero.

Sin embargo, hay información más refinada que es útil conocer: para cada vector podemos preguntar cuántas veces necesitamos aplicar la matriz para producir cero. La dirección $N_k(0)$ son precisamente esa filtración.

$D$ es probablemente el ejemplo más interesante. La filtración en su espacio nulo generalizado es

$$ N_0(0) = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \qquad N_1(0) = \begin{pmatrix} 0 \\ 0 \\ * \end{pmatrix} \qquad N(0) = N_2(0) = \begin{pmatrix} * \\ * \\ * \end{pmatrix} $$

Entonces, podemos entender la acción de $D$ como el avance progresivo de un vector nulo generalizado a través de estos subespacios: aplicando $D$ a un elemento de $N_2(0)$ devuelve un elemento de $N_1(0)$ . Aplicación de $D$ a un elemento de $N_1(0)$ devuelve un elemento de $N_0(0)$ (es decir, cero).


Por cierto, ha cometido un error en su pregunta - $n(\lambda)$ es el exponente de $(t - \lambda)$ en el polinomio mínimo de la matriz. No tiene por qué coincidir con el exponente de la polinomio característico .

Por ejemplo, en todos los $3 \times 3$ ejemplos anteriores, los polinomios característicos son todos $t^3$ . Sin embargo, los polinomios mínimos son

$$ m_C(t) = t^3 \qquad m_D(t) = t^2 \qquad m_E(t) = t $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X