5 votos

Invertibility en un número finito de dimensiones interiores espacio del producto

Deje $T$ ser invertible operador lineal en un número finito de dimensiones interiores espacio del producto. Yo sólo quiero una sugerencia en cuanto a cómo debería demostrar que $T^{\star}$ también es invertible y $( T^{-1} )^{\star} = ( T^{\star} )^{-1}$.


$$ \circ \circ \circ ~ Answer ~ from ~ Below ~ \circ \circ \circ $$

$$ \langle(T^{-1})^*(T^*(v))\mid w\rangle\desbordado{1}{=} \langle T^*(v)\mediados de T^{-1}(w)\rangle\desbordado{2}{=} \langle v\mediados de T(T^{-1}(w))\rangle\desbordado{3}{=} \langle v\mid w\rangle $$


Podría alguien explicar los pasos a $1$ a través de $3$, por favor?


En realidad, creo que @egreg es el uso de esta propiedad:

image

3voto

egreg Puntos 64348

La transposición $T^*$ de un endomorfismo $T$ se caracteriza por la propiedad de que $$ \langle v\mediados de T(w)\rangle=\langle T^*(v)\mid w\rangle $$ (donde I denota por $\langle x\mid y\rangle$ del producto interior de dos vectores $x,y\in V$). La otra cosa a tener en cuenta es que si $S_1$ $S_2$ son endomorphisms de $V$, $S_1=S_2$ si y sólo si $\langle S_1(v)\mid w\rangle=\langle S_2(v)\mid w\rangle$, para todos los $v,w\in V$.

Por definición, para todos los $v,w\in V$, $$ \langle(T^{-1})^*(T^*(v))\mid w\rangle= \langle T^*(v)\mediados de T^{-1}(w)\rangle= \langle v\mediados de T(T^{-1}(w))\rangle= \langle v\mid w\rangle $$ y, por tanto, $(T^{-1})^*\circ T^*$ es la identidad.

Del mismo modo, $$ \langle T^*((T^{-1})^*(v))\mid w\rangle= \langle (T^{-1})^*(v)\mediados de T(w)\rangle= \langle v\mediados de T^{-1}(T(w))\rangle= \langle v\mid w\rangle $$ así también se $T^*\circ (T^{-1})^*$ es la identidad.

Por lo tanto $$ (T^{-1})^*=(T^*)^{-1}. $$ como queríamos demostrar.

Tenga en cuenta que ninguna hipótesis de finito dimensionalidad es necesario, pero solo la existencia de la transpuesta endomorfismo, lo cual es cierto para espacios de Hilbert.

2voto

Gabriel Puntos 261

He aquí una de baja tecnología sugerencia: Elija bases! (Como es el mantra de gran parte de los básicos de álgebra lineal).

Una vez que elija una base, $T$ se convierte en la matriz. Ahora a la inversa y adjuntos tienen muy fácil descripciones: a saber, como a la inversa (!) y conjugada transpuesta. Un poco de pensamiento ahora va a convencer de que puede cambiar estas dos operaciones.

Si no lo veo, simplemente escriba la matriz de multiplicaciones. Recordemos también que la transposición de los interruptores en el orden de la multiplicación es decir $(AB)^T = B^TA^T$ y la conjugación distribuye de la manera obvia.

Hay muchos más alta tecnología solución para hacer esta base libre, pero esta es una buena para ponerse en marcha con.

0voto

Tyquan Pesik Puntos 86

Permítanme comenzar por señalar el siguiente teorema:


Teorema: Una transformación lineal $T$ de un espacio vectorial $V$ con un límite de base $\alpha_1,\dots,\alpha_n$ es nonsingular si y sólo si los vectores $\alpha_1T,\dots,\alpha_nT$ son linealmente independientes en $V$. Cuando este es el caso, $T$ tiene un (a dos caras) lineal inversa $T^{-1}$,$TT^{-1} = T^{-1}T=I$. Ahora, considere la siguiente prueba suplementaria (denunciado por `ὅπερ ἔδει δεῖξαι"):

Prueba. Primero supongamos $T$ es nonsingular. Si existe una relación lineal $\Sigma x_i(\alpha_iT)=0$ entre el $\alpha_iT$, luego $$ (x_1\alpha_1 + \cdots + x_n\alpha_n )T = x_1(\alpha_1 )T+\cdots + x_n(\alpha_nT)=0. $$ Desde $0T=0$, e $T$ es uno a uno, esto implica $x_1\alpha_1+\cdots + x_n\alpha_n=0$ y, por tanto, por la independencia de la $\alpha$s, $x_1=\cdots=x_n=0$. Por lo tanto el $\alpha_iT$ son linealmente independientes. Por el contrario, suponga que los vectores $\beta_1=\alpha_1T, \dots, \beta_n=\alpha_nT$ son linealmente independientes, y recordar que una transformación de $T$ es uno-uno a si y sólo si tiene dos lados inversa. Desde $V$ $n$- dimensional, el $n$ independiente de vectores $\beta_1,\dots,\beta_n$ son una base de $V$. Ahora, considere el siguiente lema:

Lema. Si $\beta_1,\dots, \beta_m$ es una base del espacio vectorial $V$, e $\alpha_1,\dots, \alpha_m$ cualquier $m$ vectores en $W$, entonces existe una y sólo una transformación lineal $T:V\rightarrow W$$\beta_1T=\alpha_1, \dots, \beta_mT=\alpha_m$, y esta transformación se define por $$ (x\beta_1+\cdots+x_m\beta_m)T = x_1\alpha_1 + \cdots + x_m\alpha_m.$$

Por este lema, no es una transformación lineal $S$ $V$ con $$ \beta_1S=\alpha_1,\beta_2S=\alpha_2, \cdots, \beta_nS=\alpha_n.$$ Por tanto, para cada $i=1,\dots, n$,$\beta_i(ST)=\beta_i$. Puesto que el $\beta_1,\dots, \beta_n$ son una base, no hay---de conformidad con el lexema---sólo una transformación lineal $T$ $\beta_iR=\beta_i$ por cada $i$, y esta transformación es la identidad. Por lo tanto $ST=I$. Del mismo modo, $\alpha_i(TS)=\beta_iS=\alpha_i$, y, puesto que el $\alpha$'s son una base, $TS=I$. Por lo tanto $S$ es la inversa de a $T$, e $T$ es nonsingular; ὅπερ ἔδει δεῖξαι.


Ahora, un corolario de este resultado es que un $n\times n$ matriz $A$ es nonsingular si y sólo si tiene una matriz inversa de a $A^{-1}$, de tal manera que $$ ~AA^{-1}=A^{-1}A=I,$$ así que si $A$ tiene una inversa, también lo hace su transpuesta, en la que tomando la transpuesta de cualquiera de los lados de la por encima de la igualdad, se pone en $(A^{-1})^tA^t=A^t(A^{-1})^t=I$, por lo que tenemos el resultado $$ (A^{-1})^t=(A^t)^{-1}. $$ Hence, if $Un$ is invertible, so is $^t$; por otra parte, la verdad es lo contrario de manera similar; quod brindamos demonstrandum.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X