53 votos

¿Cómo interpretar el adjunto?

Dejemos que $V \neq \{\mathbf{0}\}$ sea un espacio de producto interno, y sea $f:V \to V$ sea una transformación lineal sobre $V$ .

Entiendo que el definición 1 del adjunto de $f$ (indicada por $f^*$ ), pero no puedo decir que realmente grok esta otra transformación lineal $f^*$ .

Por ejemplo, me resulta completamente inesperado decir que $f^* = f^{-1}$ equivale a decir que $f$ preserva todas las distancias y ángulos (definidos por el producto interior sobre $V$ ).

Me sorprende aún más saber que decir que $f^* = f$ equivale a decir que existe una base ortonormal para $V$ que consiste enteramente en vectores propios de $f$ .

Ahora, puedo seguir las pruebas de estos teoremas perfectamente bien, pero el ejercicio no me da ninguna idea de la naturaleza del adjunto .

Por ejemplo, puedo visualizar una transformación lineal $f:V\to V$ cuyos vectores propios son ortogonales y abarcan el espacio, pero esta visualización dice yo nada sobre lo que $f^*$ debería ser como cuando este es el caso, en gran parte porque estoy completamente en la oscuridad sobre el adjunto en general .

Del mismo modo, puedo visualizar una transformación lineal $f:V\to V$ que preserva longitudes y ángulos, pero, de nuevo, y por la misma razón, esta visualización no me dice nada sobre lo que esto implica para $f^*$ .

¿Hay alguna forma (libre de coordenadas, agnóstica de representación) de interpretar el adjunto que haga que teoremas como los mencionados anteriormente sean menos sorprendentes?


1  El adjunto de $f:V\to V$ es la única transformación lineal $f^*:V\to V$ (se garantiza que existe para toda transformación lineal de este tipo $f$ ) tal que, para todo $u, v \in V$ ,

$$ \langle f(u), v\rangle = \langle u, f^*(v)\rangle \,.$$

7 votos

+1 para el uso de grok (ver es.wikipedia.org/wiki/Grok ) - Me encantaría ver esta palabra más a menudo en un uso tan parentético.

3 votos

@HansStricker: Me alegro de que te guste grok ¡! Mi título original para el post era "Grokking the adjoint", pero después pensé que este título era demasiado confuso...

1 votos

Como indica Branimir a continuación, el adjunto es sólo una versión abstracta de la transposición. Véanse los artículos de Wikipedia sobre matrices ortogonales y matrices simétricas para versiones concretas de algunas de sus otras afirmaciones.

21voto

Jan D. Puntos 316

Para simplificar, permítanme considerar sólo la imagen de dimensión finita. En el mundo de las dimensiones infinitas, hay que considerar los mapas acotados entre espacios de Hilbert, y los duales continuos de los espacios de Hilbert.

Recordemos que un producto interno en un espacio vectorial real [complejo] $V$ define un isomorfismo canónico [conjugado-lineal] de $V$ a su espacio dual $V^\ast$ por $v \mapsto (w \mapsto \langle v,w\rangle)$ donde utilizo descaradamente la convención de los físicos matemáticos de que un producto interno es lineal en el segundo argumento y conjugado-lineal en el primero; denotemos este isomorfismo $V \cong V^\ast$ por $R$ para que $R(v)(w) := \langle v,w\rangle$ .

Ahora, recordemos que una transformación lineal $f : V \to W$ induce automáticamente una transformación lineal $f^T : W^\ast \to V^\ast$ El transponer de $f$ , por $\phi \mapsto \phi \circ f$ Todos $f^T$ hace es utilizar $f$ en la forma obvia de volcar los funcionales $W$ en funcionales sobre $V$ y representa realmente la imagen de $f$ a través del espejo, por así decirlo, de tomar espacios duales. Sin embargo, si se tienen productos internos en $V$ y $W$ entonces tienes los correspondientes isomorfismos [conjugado-lineales] $R_V : V \cong V^\ast$ y $R_W : W \cong W^\ast$ para que pueda utilizar $R_V$ y $R_W$ para reinterpretar $f^T : W^\ast \to V^\ast$ como un mapa $W \to V$ es decir, se puede formar $R_V^{-1} \circ f^T R_W : W \to V$ . Sin embargo, si se desagregan las definiciones, se encontrará que $R_V^{-1} \circ f^T \circ R_W$ no es otro que su adjunto $f^\ast$ . Por lo tanto, teniendo en cuenta fijo productos internos en $V$ y $W$ , $f^\ast$ es simplemente $f^T$ , podría decirse que es un objeto más fundamental, excepto que se reinterpreta como un mapa entre sus espacios vectoriales originales, y no sus duales. Si te gustan los diagramas conmutativos, entonces $f^T$ , $f^\ast$ , $R_V$ y $R_W$ todo encaja en un diagrama conmutativo muy bonito.

En cuanto a los casos específicos de operadores unitarios y autoadjuntos:

  1. Si se quiere ser decididamente geométrico en todo, la noción fundamental no es la de unitario, sino la de un isometría es decir, una transformación lineal $f : V \to V$ tal que $\langle f(u),f(v)\rangle = \langle u,v\rangle$ . A continuación, puede definir un unitario como una isometría invertible, lo que equivale a la definición en términos del adjunto. De hecho, si estás trabajando en una dimensión finita $V$ , entonces puede comprobar que $f$ es unitaria si y sólo si es isométrica.

  2. A la luz de la larga discusión anterior, un operador $f : V \to V$ es autoadjunto si y sólo si $f^T : V^\ast \to V^\ast$ es exactamente lo mismo que $f$ tras aplicar el isomorfismo [conjugado-lineal] $R_V : V \to V^\ast$ es decir, $f = R_V^{-1} \circ f^T \circ R_V$ , o de forma equivalente, $R_V \circ f = f^T \circ R_V$ que se puede interpretar como la conmutatividad de un determinado diagrama. Esa auto-unión implica todas estas bonitas propiedades espectrales posiblemente no debería se considere obvio - al fin y al cabo, el teorema espectral, incluso en el caso de dimensiones finitas, es un teorema muy poco trivial en todos los aspectos, ¡sobre todo conceptualmente!

No estoy seguro de que mi discurso general sobre los adjuntos y las transposiciones sea tan convincente, pero mantengo mi afirmación de que la noción de isometría es la más fundamental desde el punto de vista geométrico, que da lugar a la noción de unitario simplemente a partir de la propia definición de un adjunto, y que las propiedades espectrales de un operador autoadjunto son realmente un hecho muy poco trivial que no debería darse por sentado.

0 votos

Ah, sí. Lo aclararé.

1 votos

Gracias. Usted escribe que se puede "definir unitario como una isometría invertible". Lo que me confunde de esto es que no veo cómo una isometría $f:V\to V$ podría no ser invertible... Tal isometría tendría que preservar la independencia lineal, y por lo tanto tendría que ser biyectiva. ¿Me he perdido algo? Además, ¿quieres decir $\langle f(u), f(v) \rangle = \langle u, v \rangle$ (en lugar de $(f(u), f(v)) = (u, v)$ )?

2 votos

En el caso de dimensión infinita, se pueden obtener isometrías que no sean suryentes. Por ejemplo, en el espacio de Hilbert $\ell^2(\mathbb{N})$ de secuencias sumables al cuadrado $(a_0,a_1,a_2,\dotsc)$ se puede definir el operador de desplazamiento unilateral $S$ por $S(a_0,a_1,a_2,\dotsc) := (0,a_0,a_1,a_2,\dotsc)$ ; $S$ es una isometría, pero no suryente, ya que cualquier cosa en el rango de $S$ es de la forma $(0,\dotsc)$ . Y sí, ¡gracias por notarlo!

7voto

Muphrid Puntos 12245

El adjunto nos permite pasar de una visión de transformación activa de un mapa lineal a una visión pasiva y viceversa. Consideremos un mapa $T$ y un vector $u$ y un conjunto de covectores de base $e^i$ para $i \in 1, 2, \ldots$ . Dada la definición del adjunto, tenemos

$$\left[\underline T(u), e^i \right] = \left[u, \overline T(e^i) \right]$$

donde la notación de corchetes comúnmente utilizada $[x, f]$ significa $f(x)$ .

A la izquierda, estamos transformando activamente $u$ a un nuevo vector y evaluando los componentes en alguna base preestablecida. A la derecha, estamos transformando pasivamente nuestro espacio para utilizar una nueva base y evaluando $u$ en términos de esa base. Así que para cada transformación activa, hay una correspondiente (y equivalente) pasiva.

Dicho esto, aunque creo que esto puede ayudar a identificar el significado del adjunto, no veo cómo esto ayuda a hacer intuitivos los teoremas que has descrito.

0 votos

Aunque es una buena idea, me temo que algo no funciona. Si la base $e_i$ es ortonormal, entonces en el lado izquierdo de $$\underline{T}(x)\cdot e_i=\overline{T}(e_i)\cdot u$$ que realmente estás expresando $\underline{T}(u)$ en los componentes con respecto a $e_i$ . Pero en la parte derecha no se hace eso, porque $\overline{T}(e_i)$ no necesita ser ortonormal.

0 votos

De todas formas he cambiado a usar covectores de base para ser más correcto; no veo la necesidad de que la base sea ortonormal entonces.

7voto

CodingBytes Puntos 102

Es difícil dar una descripción intuitiva del adjunto. Nótese que el adjunto está aquí incluso antes de que tengamos productos escalares. Es que un producto escalar permite interpretar el adjunto de un mapa $A:\ V\to V$ en un mismo espacio $V$ .

Un mapa lineal $A:\ V\to W$ de un espacio vectorial $V$ a algún otro espacio vectorial $W$ (de cualquier dimensión) produce para cada vector $x \in V$ un vector $y:=Ax\in W$ .

Supongamos ahora que en $W$ una función lineal $\phi:\ W\to{\mathbb R}$ es decir, un elemento de $W^*$ que asigna, por ejemplo, a cada punto $y\in W$ un valor de temperatura $\phi(y)$ o calcula para cada $y\in W$ la primera coordenada con respecto a alguna base de $W$ . Entonces la función $$\psi:\quad V\to{\mathbb R},\qquad x\mapsto\phi\bigl(Ax\bigr)$$ calcula para cada punto $x\in V$ la temperatura que se siente en $Ax\in W$ "incluso antes de $x$ se asigna en realidad a $W$ ". De este modo, podemos considerar $\psi$ como una distribución "virtual" de la temperatura en $V$ . Es evidente que $\psi$ es una función lineal de $V$ à ${\mathbb R}$ es decir, un elemento de $V^*$ .

Lo que hemos descrito aquí para una $\phi\in W^*$ se puede hacer, por supuesto, con cada $\phi\in W^*$ : Para cada uno de estos $\phi$ obtendremos la correspondiente $\psi\in V^*$ . En definitiva, el mapa $A:\ V\to W$ que se da al principio induce un determinado mapa $$W^*\to V^*, \quad \phi\to\psi\ .$$ Este mapa se llama transponer de $A$ y se denota por $A^*$ . Por definición tenemos la identidad $$A^*\phi.x\ =\ \phi. Ax\qquad\forall x\in V,\ \forall\phi\in W^*\ .$$ Aquí el . significa que el funcional lineal a la izquierda del punto se aplica al vector a la derecha del punto.

Un ejemplo: Supongamos que $(e_k)_{1\leq k\leq n}$ es una base en $V$ y $(f_i)_{1\leq i\leq m}$ es una base en $W$ . Entonces $A$ tiene una determinada matriz $[a_{ik}]$ con respecto a estas bases. Ahora dejemos que $$\phi:=f_1^*:\quad y\mapsto y_1\tag{1}$$ es la función que calcula la primera coordenada de un vector cualquiera $y\in W$ . Entonces $\phi.Ax$ es la primera coordenada $y_1$ del vector $y:=Ax$ . Todos sabemos que $$y_1=\sum_{k=1}^n a_{1k} x_k\ .\tag{2}$$ Como podemos escribir $x_k$ como $x_k=e_k^*.x$ podemos interpretar $(2)$ como $$A^*\phi.x=\phi.Ax=\sum_{k=1}^n a_{1k} e_k^*.x\qquad(x\in V)\ ,$$ o, dada la definición $(1)$ de $\phi$ : $$A^* f_1^*=\sum_{k=1}^n a_{1k} e_k^*\ .$$

0voto

littleO Puntos 12894

He aquí un poco de intuición para el teorema espectral. Supongamos que $V$ es un espacio de producto interno de dimensión finita sobre $\mathbb C$ y $T:V \to V$ es autoadjunto. Es fácil demostrar que todos los valores propios de $T$ son reales y que los vectores propios correspondientes a valores propios distintos son ortogonales.

Normalmente, todos los valores propios de $T$ son distintos. (Es en cierto sentido una coincidencia extraordinaria si dos raíces del polinomio característico coinciden). En este caso, vemos inmediatamente que existe una base ortonormal de vectores propios para $T$ .

Si no todos los vectores propios de $T$ son distintos, podemos perturbar $T$ ligeramente para obtener una transformación autoadjunta $\tilde{T}$ que sí tiene una base ortonormal de vectores propios. Considerando una secuencia de ligeras perturbaciones $\tilde{T}_k$ que converge a $T$ podemos esperar obtener una secuencia de bases ortonormales que converjan a una base ortonormal de vectores propios de $T$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X