Cuál es la motivación de los adjoints y operadores normales. "Motivación", me refiero por ejemplo, como una prueba, de donde es natural utilizar.
Respuestas
¿Demasiados anuncios?La idea de adjoint vino de Lagrange que se utiliza integración por partes a diferenciaciones y las multiplicaciones de una función a otra en la integral. $$ \int (Lf)gdx-\int f(L^*g)dx = \mathscr{L}(f,g). $$ $L^*$ fue el de Lagrange adjunto obtenido mediante la integración por partes. Lagrange utiliza su fórmula para llegar con la variación de los parámetros con el fin de reducir una ODA a la orden menor, y su fórmula más tarde fue utilizado para el estudio de la primera simétrica ecuaciones diferenciales derivadas de la transformada de Fourier de la separación de las variables de la técnica para resolver su ecuación del Calor. La transformada de Fourier de la aplicación, sin embargo, naturalmente involucrados casos donde $L=L^*$, que ha destacado este caso para el estudio adicional.
Sturm, junto con Liouville inició un estudio de "simétrico" Odas en este contexto de transformadas de Fourier y de Lagrange, se estudiaron los asociados ortogonal eigenfunction expansiones así. Extremo se impusieron condiciones que obligaría a la evaluación de los términos de $\mathscr{L}(f,g)$ a desaparecer. Estas condiciones surgió de forma natural en el contexto de la transformada de Fourier del estudio de la Ecuación del Calor. Esto llevó a los operadores que fueron simétrica en el dominio de las funciones que eran lo suficientemente diferenciable y satisfecho el extremo condiciones:
$$ \int_a^b (Lf)g dx = \int_a^b f(Lg)dx. $$ Se dieron cuenta de que, al igual que la transformada de Fourier había encontrado, había que resulta funciones propias, discreto de valores propios y funciones podría ser ampliado en estos ortogonal de funciones propias. Fue una cosa muy notable teniendo en cuenta que el espacio lineal no ha sido definida todavía, y que estaban trabajando en un infinito espacio tridimensional. No fue hasta décadas después de que la simetría se utilizó para el estudio de las matrices, y encontrar semejante ortogonal expansiones en los vectores propios de matrices simétricas.
Así que todo parece un poco antinatural, porque infinitas dimensiones de análisis de la simetría y funciones propias llegó mucho antes de que el análisis de finito-dimensional de los casos, lo que hace que los naturales de las aplicaciones de difícil acceso en el estudio de finito-dimensional de Álgebra Lineal. El más abstracto que vino primero, que también es bastante inusual en Matemáticas.
Por cierto, yo no estoy seguro de que el estudio de la normal operadores de empezar, pero una normal $N$ puede ser escrito como $N=A+iB$ donde $A$, $B$ son selfadjoint y conmuta con cada uno de los otros.
En algunas aplicaciones, el adjunto del operador tiene un significado. Por ejemplo, en el procesamiento de la señal, hay lineal de operadores de $T$ que el mapa de una señal (creo: una muestra de la voz humana) en una representación (piense en una representación digital) y, a continuación, el adjoint $T^{*}$ mapas de las correspondientes representaciones de nuevo en señales (por ejemplo, las señales digitales en audio). Un ejemplo sencillo es la transformada de Fourier para señales periódicas.
Si estás familiarizado con la serie de Fourier, a continuación, un ejemplo del tipo anterior es la transformada de Fourier: si $T : L^{2}(\mathbb{T}) \to \ell^{2}(\mathbb{Z})$ está dado por $Tf = (\hat{f}(n))_{n \in \mathbb{Z}}$ donde$\hat{f}(n) = \int_{\mathbb{T}} f(x) e^{-i 2 \pi x} \, dx$, $T^{*}a = \sum_{j \in \mathbb{Z}} a_{j} e_{j}$ donde $e_{j}(x) = e^{i 2 \pi j x}$, es el adjunto. La interpretación es periódico "voz" señales se asignan a sus "digital" coeficientes de Fourier por $T$, e $T^{*}$ toma secuencias de coeficientes para señales periódicas.
Otro buen ejemplo de esto es en la teoría de los procesos de difusión. En términos generales, un proceso de difusión es determinado por la ecuación diferencial parcial $\frac{\partial u}{\partial t} - L u = 0$. Si $L^{*}$ es el operador adjunto de $L$, entonces la ecuación diferencial parcial $\frac{\partial u}{\partial t} - L^{*}u = 0$ rige la inversión de tiempo de la difusión. (La inversión de tiempo de difusión es otra difusión que se parece a la original va hacia atrás.) En otras palabras, en este caso, teniendo adjoints se interpreta como revertir el tiempo.
En el fin de mantener las cosas elementales como sea posible, vamos a trabajar en $\mathbb{C}^n$.
Obtener un lineal mapa de $A:\mathbb{C}^n\rightarrow\mathbb{C}^n$. Pregúntate a ti mismo si es posible descomponer $\mathbb{C}^n$ como una suma directa de $n$ unidimensional mutuamente ortogonales $A$invariantes en espacios, o, dicho de otra manera, pregúntate a ti mismo cuando tu lineal mapa de $A$ es unitarily equivalente a un operador de multiplicación. Esto es equivalente a encontrar una base ortonormales de $\mathbb{C}^n$ hecho de vectores propios de a $A$, es decir, usted tiene que encontrar una base ortonormales $\{e_1,...,e_n\}$ $\mathbb{C}^n$ $\lambda_1,...,\lambda_n\in\mathbb{C}^n$ tal que $$Ae_1=\lambda_1e_1,...,Ae_n=\lambda e_n.$$ Supongamos que es posible realizar este tipo de descomposición. Entonces, si $v\in\mathbb{C}^n$ $c_1,...,c_n\in\mathbb{C}^n$ son tales que $$v=\sum_{k=1}^nc_ke_k$$ usted obtener: $$\langle A^*Av,v\rangle=\langle Av,Av\rangle=\sum_{k=1}^n|\lambda_k|^2|c_k|^2=\sum_{j=1}^n\sum_{k=1}^n\sum_{h=1}^n|\lambda_h|^2c_k\bar{c_j}\delta_{h,k}\delta_{h,j}=\\=\sum_{j=1}^n\sum_{k=1}^n\sum_{h=1}^n|\lambda_h|^2c_k\bar{c_j}\langle e_k,e_h\rangle \langle e_h,e_j\rangle=\sum_{j=1}^n\sum_{k=1}^n\sum_{h=1}^nc_k\bar{c_j}\langle e_k,\lambda_he_h\rangle \langle \lambda_he_h,e_j\rangle=\\=\sum_{j=1}^n\sum_{k=1}^n\sum_{h=1}^nc_k\bar{c_j}\langle e_k,Ae_h\rangle \langle Ae_h,e_j\rangle=\sum_{j=1}^n\sum_{k=1}^n\sum_{h=1}^nc_k\bar{c_j}\langle A^*e_k,e_h\rangle \langle Ae_h,e_j\rangle\\=\sum_{k=1}^n\sum_{h=1}^nc_k\langle A^*e_k,e_h\rangle \langle Ae_h,\sum_{j=1}^nc_je_j\rangle=\sum_{k=1}^n\sum_{h=1}^n \langle c_k\langle A^*e_k,e_h\rangle Ae_h,\sum_{j=1}^nc_je_j\rangle=\\=\sum_{h=1}^n \langle \langle A^*\sum_{k=1}^nc_ke_k,e_h\rangle Ae_h,\sum_{j=1}^nc_je_j\rangle=\\=\sum_{h=1}^n \langle \langle A^*v,e_h\rangle Ae_h,v\rangle=\sum_{h=1}^n \langle A\left(\langle A^*v,e_h\rangle e_h\right),v\rangle=\\= \langle A\left(\sum_{h=1}^n\langle A^*v,e_h\rangle e_h\right),v\rangle=\langle AA^*v,v\rangle.$$ Entonces $$\forall v\in\mathbb{C}^n, \langle (A^*A-AA^*)v,v\rangle=0.$$ Entonces, si $B:=A^*A-AA^*$, se tiene: $$\forall v,w \in\mathbb{C}^n, 0=\langle B(v+w),(v+w)\rangle=\\=\langle Bv,v\rangle+\langle Bv,w\rangle+\langle Bw,v\rangle+\langle Bw,w\rangle=\langle Bv,w\rangle+\langle Bw,v\rangle,$$ y $$\forall v,w \in\mathbb{C}^n, 0=\langle B(v+iw),(v+iw)\rangle=\\=\langle Bv,v\rangle-i\langle Bv,w\rangle+i\langle Bw,v\rangle+\langle Bw,w\rangle=-i\langle Bv,w\rangle+i\langle Bw,v\rangle.$$ Luego, multiplicando la segunda ecuación por $i$, añadiendo el resultado a la primera ecuación y dividiendo por 2, se obtiene: $$\forall v,w\in\mathbb{C}^n, \langle Bv,w\rangle=0,$$ y por lo $\forall v\in\mathbb{C}^n, Bv=0$ $A^*A-AA^*=B=0$ o de: $$A^*A=AA^*,$$ i.e. $Una$ es normal.
Viceversa, el teorema espectral para el normal de los operadores de los estados que si un lineal mapa de $A:\mathbb{C}^n\rightarrow\mathbb{C}^n$ es normal, entonces se puede descomponer $\mathbb{C}^n$ como una suma directa de $n$ unidimensional mutuamente ortogonales $A$invariantes en espacios.
Así que aquí está el quid de la cuestión: una lineal mapa de $A:\mathbb{C}^n\rightarrow\mathbb{C}^n$ es unitarily equivalente a un operador de multiplicación si y sólo si $A$ es normal.