6 votos

Generalización de la forma de Jordan de matrices infinitas

Bajo qué condiciones es el caso que para una matriz de $M$ en cuyas filas y columnas son indexados por un countably conjunto infinito $S$ uno tiene una base de Hamel consta de vectores propios generalizados (es decir,$v \in \ker(M - \lambda I)^n$)$M$? Debe $M$ ser una compacta de operador (tengo una norma)?

La matriz de la que estoy trabajando tiene no negativo entradas de la fila sumas que no excedan $1$ (substochastic), es irreducible y aperiódica. Sospecho, sin embargo, esta pregunta puede ser de interés general para los demás, por lo que cualquier solución de la no utilización de estas propiedades sería más útil.

EDITAR

Aquí hay más información: la matriz $M$ el que estoy trabajando con es $R$-positivo. Esto significa que ninguna de las secuencias $\{ M^n_{ij}\}_{n \in \mathbb{N}}$, $i,j \in S$, convergen a $0$, donde $$ R^{-1} := \lim_{n \to \infty} (M_{ij}^n)^{1/n}. $$ En tal caso, se sabe que $R^{-1}$ es el radio espectral de $M$, y, además, que $R^{-1}$ es un autovalor de a $M$ para los que no son exclusivos de la izquierda y la derecha autovectores $\alpha,\beta$ que son estrictamente positivos y satisfacer $$ \sum_{k \in S} \alpha(k) \beta(k) < \infty. $$ En particular, el conjunto de autovalores para $M$ no puede estar vacío.

Gracias!

1voto

Studer Puntos 1050

Deje $H$ ser un countably-dimensional espacio de Hilbert con base $\{e_n\}$. Deje $T$ ser el promedio ponderado de cambio dado por $$ Te_n=\frac1n\,e_{n+1}. $$ Este operador es compacto (en realidad, Hilbert-Schmidt).

Si $Tv=\lambda v$,$v=\sum_n\alpha_n e_n$, luego $$ \sum_{n=1}^\infty\alpha_n\lambda e_n=\sum_{n=1}^\infty\alpha_n Te_n=\sum_{n=1}^\infty\alpha_n\,\frac1n\,e_{n+1}=\sum_{n=2}^\infty\frac{\alpha_{n-1}}{n-1}\,e_n. $$ Si $\lambda=0$, podemos deducir que $\alpha_n=0$ todos los $n$, lo $v=0$. Si $\lambda\ne0$,$\alpha_1=0$, e $\alpha_{n+1}=\alpha_n/n$, lo que implica de nuevo que $\alpha_n=0$ todos los $n$. Por lo $v=0$. Esto demuestra que $T-\lambda I$ ha trivial kernel para todas las $\lambda$.

Por lo $T$ no tiene un valor distinto de cero vectores propios generalizados, y no se puede tener un Jordan en la forma, al menos en el sentido obvio.

0voto

Schneems Puntos 3208

No estoy seguro de si esta respuesta es útil en su caso.

Teorema: Existe una base formada por vectores propios generalizados de $T:V\rightarrow V$, incluso si $V$ es un infinito dimensional espacio vectorial sobre un campo $F$, si asumimos la existencia de un polinomio $p(x)\in F[x]$ con todas las raíces en $F$ tal que $p(T)=0$.

Por supuesto, tenemos que demostrar primero para nilpotent operadores. Entonces debemos utilizar el Principal teorema de descomposición para extender arbitrarias de los operadores de la satisfacción de esta hipótesis. Aviso de que esta hipótesis se cumple siempre en dimensión finita, por Cayley-Hamilton teorema, si $F=\mathbb{C}$. La prueba es casi la misma que la de finito dimensionales caso.

La prueba de nilpotent operadores es una inducción sobre el nilpotency índice $($el más pequeño $k$ tal que $T^k=0)$, que no depende de la dimensión de $V$.

Vamos a demostrar para nilpotent operadores de $($es decir, cuando se $p(x)=x^k)$.

Prueba: Vamos a $T:V\rightarrow V$ ser un nilpotent operador. Deje $k$ ser el nilpotency índice. Si $k=1$ el teorema es trivial. Supongamos $k>1$.

Desde $k>1$$T\neq0$$\Im(T)\neq 0$. Definir $T':\Im(T)\rightarrow\Im(T)$, de tal manera que $T'(x)=T(x)$.

El nilpotency índice de $T'$ es menor que el índice de $T$.Así, por inducción de la hipótesis de que existe una base $\alpha$ $\Im(T)$ tal que

  1. $\alpha=\cup_{i\in I}\alpha_i$
  2. $\alpha_i=\{v_1^i,\ldots,v_{s_i}^i\}$, $s_i<k$
  3. $T(v_l^i)=v_{l-1}^{i}$ $1<l\leq s_i$ $T(v_1^i)=0$

A continuación para cada una de las $v_{s_i}\in\alpha_i\subset\Im(T)$, elija $v_{s_{i+1}}^i$ tal que $T(v_{s_{i+1}}^i)=v_{s_{i}}^i$.

Considere el siguiente preimagen de $\alpha$: $\cup_{i\in I}\beta_i$ donde $\beta_i=\{v_2^i,\ldots,v_{s_i}^i,v_{s_{i+1}}^i\}$ Ahora, vamos a $W$ ser un subespacio de $V$ generado por $\cup_{i\in I}\beta_i$. Observe que $\ker(T)\oplus W=V$ $\cup_{i\in I}\beta_i$ es una base de $W$.

Ahora, $\{v_1^i,i\in I\}$ es una base de $\ker(T)\cap\Im(T)$. (Es straightfoward)

Deje $R$ ser un subespacio de $\ker(T)$ tal que $R\oplus (\ker(T)\cap\Im(T))=\ker(T)$. Deje $\{r_j, j\in J\}$ ser una base de $R$.

Finalmente, la base necesaria de $V=\ker(T)\oplus W=R\oplus (\ker(T)\cap\Im(T))\oplus W$ es $$\{r_j, j\in J\}\cup \{v_1^i,i\in I\}\cup (\cup_{i\in I}\{v_2^i,\ldots,v_{s_i}^i,v_{s_{i+1}}^i\})=$$ $$=\{r_j, j\in J\}\cup (\cup_{i\in I}\{v_1^i, v_2^i,\ldots,v_{s_i}^i,v_{s_{i+1}}^i\}).$$ $\cuadrado$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X