5 votos

Álgebra lineal prueba con operador lineal

Deje $V$ ser un número finito de dimensiones de espacio vectorial, $T \in L(V)$ lineal mapa cuya matriz $M(T)$ es el mismo para todas las bases de $V$. Mostrar que $T$ es un escalar múltiples de la identidad de mapa de $I$.

Sé que tiene que ver con algo sobre los vectores de ser linealmente independientes en una base, pero no sé a dónde ir, con que, cuando tratando de encontrar una contradicción

1voto

Maneesh Puntos 3325

Sugerencia: La condición de "$M$ es el mismo para todas las bases de $V$" puede ser escrita:

$$\forall P \in \mathbf{GL}_n(K) \;\;\;\; PMP^{-1} = M$$

es decir. $M$ está en el centro de la $\mathbf{GL}_n(K)$.

Usted puede comprobar lo que la condición anterior significa que para algunos bien elegido matrices de $\mathbf{GL}_n(K)$ (por ejemplo, la transvection $I_n + E_{i,j}$).

0voto

egreg Puntos 64348

Debemos tener $A=SAS^{-1}$, para cada matriz invertible $S$, lo $AS=SA$.

Deje $E_i(c)$ ser la matriz obtenida a partir de la identidad multiplicando el $i$-ésima fila de a $c\ne0$. A continuación, $E_i(c)A$ es lo mismo que $A$ $i$- ésima fila multiplicada por $c$, mientras que el $AE_i(c)$ es lo mismo que $A$, pero con el $i$-ésima columna multiplicada por $c$.

La elección de $i=1$$c=2$, vemos que el coeficiente en lugar de $(1,k)$ se multiplica por $2$$E_1(2)A$, mientras que no se cambie en $AE_1(2)$. Por lo tanto es cero. Así que la primera fila es $[a_{11}\;0\;\dots\;0]$.

Usted puede probar de forma similar que la matriz es diagonal.

En particular, existe una base formada por vectores propios; permuting ellos no cambio de la matriz, por lo que todos los autovalores son iguales.

Lo contrario también es cierto: la matriz en relación a cada base del mapa de $v\mapsto av$$aI$.

0voto

Med Puntos 53

Si usted tiene un espacio vectorial finito $V$, si desea cambiar la representación de los vectores,de acuerdo a una nueva base, usted sólo tiene que encontrar un completo rango de la matriz $X$ que las transferencias de todos los vectores $v$ a la nueva representación $Xv$.

Ahora, suponga un mapa de $M:V\rightarrow V$

$Mv=w$

Si queremos que los vectores $v$ $w$ a ser representado con una nueva base, existe una matriz$X$.

Multiplicar ambos lados de $Mv=w$ $X$ para obtener

$XMv=Xw$

El vector $w$ es transferido a la nueva base. Sin embargo, el mismo puede ser hecho por $v$, si podemos conmutar $X$$M$. Esto es posible, para cada rango de la matriz $X$, si y sólo si $M$ es un múltiplo de la matriz de identidad.

0voto

Nikolay Gromov Puntos 698

Vamos a demostrar que el elemento de la matriz $m_{i,j}=0$$i\neq j$: hacer la siguiente nueva base $u_a=v_a$ con la excepción de $a=i$ donde $u_i=v_i+v_j$

que corresponde a la matriz de $A$ casi identidad, excepto la diagonal elemento $A_{ij}=1$

Después de que hayamos $A^{-1}MA=M$, lo que implica que $m_{i,j}=0$ también $m_{ii}=m_{jj}$

Repetir el mismo procedimiento para los diferentes $i\neq j$ llegamos a la conclusión de que todos los elementos de la diagonal son cero y los elementos de la diagonal son todos iguales.

Para ejemplificar el método de tomar $4\times 4$ de la matriz M: $$ M=\left( \begin{array}{cccc} m_{1,1} & m_{1,2} & m_{1,3} & m_{1,4} \\ m_{2,1} & m_{2,2} & m_{2,3} & m_{2,4} \\ m_{3,1} & m_{3,2} & m_{3,3} & m_{3,4} \\ m_{4,1} & m_{4,2} & m_{4,3} & m_{4,4} \\ \end{array} \right) $$ y $i=1$ $j=2$ para conseguir que los $A^{-1}.M.A-M$: $$ \left( \begin{array}{cccc} -m_{2,1} & m_{1,1}-m_{2,1}-m_{2,2} & -m_{2,3} & -m_{2,4} \\ 0 & m_{2,1} & 0 & 0 \\ 0 & m_{3,1} & 0 & 0 \\ 0 & m_{4,1} & 0 & 0 \\ \end{array} \right) $$ lo que implica que $m_{2,1}=0$ $m_{1,1}=m_{2,2}$

0voto

jgon Puntos 3067

Tenga en cuenta que voy a estar partiendo de la notación de sumatoria para denotar la multiplicación de la matriz, donde las repetidas índices se suman más. E. g. $c_{ik}=a_{ij}b_{jk}$ denota lo mismo que $c_{ik}=\sum_j a_{ij}b_{jk}$.

Deje $E_{ij}$ denotar la matriz que es todo ceros excepto en la ubicación de $ij$, y asumir la $i\ne j$. A continuación,$E_{ij}^2=0$, lo $(1+E_{ij})(1-E_{ij})=1$. Ahora desde $1+E_{ij}$ es invertible, la condición dada nos dice que $(1+E_{ij})M=M+E_{ij}M=M(1+E_{ij})=M+ME_{ij}$. Entonces esto nos dice que $E_{ij}M=ME_{ij}$.

Ahora $(E_{ij}M)_{rc}=\delta_{ri}\delta_{kj}m_{kc}=\delta_{ri}m_{jc}$ es la matriz que es todo ceros, excepto para el $i$th fila que contiene el $j$ésima fila de a $M$. Del mismo modo, $(ME_{ij})_{rc}=M_{rk}\delta_{ki}\delta_{jc}=m_{ri}\delta_{jc}$ $ME_{ij}$ es la matriz que es todo ceros, excepto para el $j$ésima columna que contiene el $i$ésima columna de a $M$. La comparación de estas dos matrices, tenemos $\delta{ri}m_{jc}=m_{ri}\delta_{jc}$. Dejando $r=i$, $m_{jc}=m_{ii}\delta{jc}$ o $m_{jc}=0$ al$c\ne j$$m_{jj}=m_{ii}$. Desde $i$ $j$ fueron arbitrarias, vemos que cada entrada de la diagonal debe ser igual y de cada diagonal de la entrada debe ser cero.

En otras palabras, $M=\lambda\cdot 1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X