36 votos

¿Cuáles son todas las generalizaciones necesarias para pasar de finito álgebra linear dimensional con matrices a series de fourier y SEEP?

He estudiado Álgebra Lineal en dimensiones finitas y ahora estoy estudiando series de fourier, sturm-liouville problemas, ecuaciones en derivadas parciales, etc. Sin embargo, ninguno de nuestros profesores hecho ninguna conexión entre el álgebra lineal una esta. Creo que este es un gran error porque veo muchas preguntas aquí, donde todo el mundo habla de estos temas como generalizaciones de simple álgebra lineal.

Por tanto, ¿cuáles son las generalizaciones? Por ejemplo, me parece una matriz se convierte en una función en dimensión infinita, pero de eso se trata.

65voto

icurays1 Puntos 9121

La generalización que estamos buscando es el llamado análisis funcional. Como se puede sospechar, vectores de vuelta en funciones, y las matrices de vuelta en el lineal de los operadores que actúan en funciones. Base de expansiones de vuelta en la transformada de Fourier de tipo serie. Autovalores y autovectores generalizar a una zona denominada teoría espectral. Productos de puntos generalizar al interior de productos...y así sucesivamente. El mejor libro de introducción a la que conozco es "Introductorio de Análisis Funcional" por Kreyszig. Es perfecto para alguien que ha tomado álgebra lineal y tal vez un primer curso de análisis (en el nivel de "Baby " Rudin").

Aquí hay un par de detalles más:

Base De Expansiones

  • En álgebra lineal, usted piensa acerca de la expansión de un vector $x$ en una base. ¿Qué significa esto? Bueno, si $x\in V$ $V$ es de un número finito de dimensiones de espacio vectorial (es decir $\text{dim}(V) = n$) podemos elegir un especial conjunto de vectores $e_1,\ldots,e_n$ tal que para cualquier $x\in V$, no son los coeficientes $\alpha_1,\ldots,\alpha_n$ tal que

$$ x = \sum_{j=1}^n\alpha_j e_j $$ In functional analysis, you can usually do the same thing. Given a function $f\X$, where $X$ is now a vector space of functions, one can usually find a special infinite sequence $e_1(x),e_2(x),\ldots$ such that for any $f\X$, there are coefficients $\alpha_1,\alpha_2,\ldots$ que

$$ f(x) \stackrel{X}{=} \sum_{j=1}^\infty\alpha_j e_j(x) $$ Since this is an infinite sum, you have to be much more careful about what you mean by $=$, hence putting an $X$ on top to indicate that this is `equality in the sense of the vector space $X$'. This becomes more precise when you talk about norms, inner products, and metrics. An example would be the so-called Hilbert space $L^2([0,1])$, donde la igualdad significa

$$ \lim_{n\rightarrow\infty} \int_0^1\left\vert f(x) - \sum_{j=1}^n \alpha_j e_j(x)\right\vert ^2 dx = 0 $$ Otros ejemplos, obviamente, también existen, pero no voy a entrar en ello. Desde que suena como que usted está interesado en serie de Fourier, usted será feliz de saber que esto es exactamente lo que estoy hablando: si usted toma

$$ e_k(x) = \exp(2\pi i kx) $$, then any $f\en L^2([0,1])$ will have coefficients $\alpha_{\pm 1},\alpha_{\pm 2},\ldots$ such that $ f= \sum_{k=-\infty}^\infty \alpha_k\exp(2\pi ikx)$, where again $=$ means "in the $L^2$ sentido".

Al igual que en dimensiones finitas, un papel especial desempeñado por bases ortonormales en infinitas dimensiones. En dimensiones finitas, si usted tiene una base $e_1,\ldots,e_n$ que es ortonormales, entonces siempre se puede escribir los coeficientes de dilatación como productos de puntos:

$$ x = \sum_{j=1}^n (x\cdot e_j) e_j $$ In some function spaces, you have a generalization of the dot product called an inner product, written usually as $\langle f,g\rangle$. While there are many inner products, the most popular ones tend to be the $L^2$ interior de los productos:

$$ \langle f,g\rangle_{L^2([a,b])} = \int_a^b f(x)\overline{g(x)} dx $$ Then, if $e_1,\ldots$ is an orthonormal basis for $L^2([a,b])$, usted puede escribir

$$ f(x) \stackrel{L^2}{=} \sum_{j=1}^\infty \langle f,e_j\rangle e_j(x) $$ Algunas veces usted no tiene un producto interior, por lo que "ortonormales base" tiene sentido (no tengo manera de medir los ángulos). Pero, usted todavía puede hacer la base de expansiones, que sólo podría ser más difícil para calcular los coeficientes de dilatación. Hay libros enteros sobre este tema - ver, por ejemplo, Una capa de Imprimación sobre la Base de la Teoría Heil o Marcos y Bases por Christensen.

Lineal De Operadores

  • En álgebra lineal, se trabaja mucho con las matrices, que son representaciones de la linealidad de los operadores de $L:V\rightarrow W$ donde $V$ $W$ son dos espacios vectoriales con dimensión$n$$m$. La matriz es una representación porque debemos elegir las bases para $V$ $W$ a fin de definir! Suponiendo que se ha seleccionado bases, a continuación, puede escribir una matriz de $A$ tal que

$$ (\Alpha)_i = \sum_{j=1}^n A_{ij}\alpha_j,\quad 1\leq i\leq m $$ where $\alpha$ is the vector of coefficients representing $x\in V$. Esto se generaliza a las funciones de la misma manera, excepto que usted necesitará un infinito de la matriz:

$$ (\Alpha)_i = \sum_{j=1}^\infty A_{ij} \alpha_j,\quad 1\leq i\leq m $$ Here $m$ can either be finite or infinite, depending on the dimension of $W$.

Otra perspectiva lineal de operadores trata de pensar acerca de la generalización de la matriz-vector de productos de sumas de integrales. A grandes rasgos, se puede imaginar que como $n\rightarrow \infty$, usted podría tener

$$ \sum_{j=1}^n A_{ij}\alpha_j \longrightarrow \int_{0}^1 a(x,y) f(y) dy $$ in the appropriate sense. Here $A(x,y)$ es ahora una función, así como la sospecha, matrices de vuelta en funciones. Esta perspectiva es muy útil, ya que surge en la teoría de funciones de Green, elementos finitos, y las ecuaciones integrales.

Una cosa que quiero mencionar es que los temas de dominio y el rango que ser mucho más sutil. Mientras que en los de dimensiones finitas, es bastante simple para hablar sobre el dominio y el rango de un operador lineal, usted puede tener problemas con infinitas dimensiones de los operadores que tienen que ver con boudnedness. Por ejemplo, el operador de la derivada de $L = \frac{d}{dx}$ es muy importante operador lineal para estudiar. Sin embargo es "ilimitado" en la mayoría de los "estándar" de los espacios de funciones. Esta es, esencialmente, porque podemos tener "pequeños" de las funciones que ser muy "grande" después de la diferenciación de tomar $f(x) = \epsilon \sin(x/\epsilon^2)$ donde $\epsilon$ es un número muy pequeño, por ejemplo. $f(x)$ es muy "pequeño" porque tiene una muy pequeña amplitud, sino $f^\prime(x)=\frac{1}{\epsilon}\cos(x/\epsilon^2)$ es muy "grande".

Autovalores y Autovectores

  • En álgebra lineal, de hacer la pregunta en cuanto a si un operador lineal $L$ existen especial $v_j\in V$ $\lambda_j\in \Bbb{C}$ tal que

$$ Lv_j = \lambda_jv_j $$ You can do the same in functional analysis, with a few extra technical details (for instance, instead of finitely many eigenvalues or even countably infinitely many, you can have an entire interval of eigenvalues). Eigenvalues are still called eigenvalues, but eigenvectors are usually called eigenfunctions. A great example is the differentiation operator: if $L = \frac{d}{dx}$, without getting too technical, you can think about any exponential function $v(x) = \exp(\lambda x)$ as being an eigenfunction of $L$ with eigenvector $\lambda$, ya que

$$ (Lv)(x) = \lambda v(x) $$ Furthermore, the spectral decomposition of a Hermitian matrix (Hermitian means A = A^\dagger), usually written $A = Q\Lambda Q^\daga$, where $\Lambda$ is a diagonal matrix and $P$ is a unitary matrix, turns into something called the spectral theorem of self-adjoint operators, which states that any bounded "self-adjoint" (also a symmetry condition) operator $L$ will have a decomposition of the form $L = U T_\lambda U^\daga$ where $U$ is a unitary operator and $T_\lambda$ is a multiplication operator (the generalization of a diagonal matrix). An example of this is the relationship between convolution and the Fourier transform. Say we define a linear operator $L$ de la siguiente manera:

$$ (L_kf)(x) = \int_{-\infty}^\infty k(x-y)f(y)dy $$ Then, with some conditions on $k$, one can prove that this operator is bounded and self-adjoint, and furthermore, we have a "spectral decomposition" of $L$ de la forma

$$ L = \mathcal{F}^*T_\lambda \mathcal{F} $$ where $\mathcal{F}$ es la (unitario) la transformada de Fourier:

$$ (\mathcal{F}f)(\xi) = \int_{-\infty}^\infty f(x)\exp(-2\pi i \xi x) dx $$ Esto es a veces escrito como

$$ (Lf)(x) = \mathcal{F}^{-1} [\hat{k}(\xi)\hat{f}(\xi)] $$ In other words, the eigenvalues of $L_k$ are given by $\hat{k}(\xi)$ (a continuum of them!) and the eigenfunctions of $L_k$ son las exponenciales complejas.

30voto

TrialAndError Puntos 25444

En realidad, la separación de variables ortogonal y ampliaciones de funciones en las funciones propias de un Sturm-Liouville problema vino antes finito-dimensional de álgebra lineal y el estudio de selfadjoint matrices. Así, estos temas no son generalizaciones de los temas de álgebra lineal--llegaron primero, que es una de las peculiaridades de los sujetos. De nuevo, infinitas dimensiones ortogonales ampliaciones de funciones depredados finito-dimensional lineal álgebra y al estudio de los simétrica y Hermitian matrices en finito-dimensional en el espacio Euclidiano. El infinito-dimensional estudios condujo el finito-dimensional.

Si usted tiene un selfadjoint matriz cuadrada $A$ $N$ dimensiones reales o complejos espacio, entonces hay un número finito de valores propios $\lambda$ que $A-\lambda I$ tiene un no-trivial en el espacio nulo. Estos autovalores $\{ \lambda_1,\lambda_2,\cdots,\lambda_n\}$ son las raíces del polinomio característico $p(\lambda)=\mbox{det}(A-\lambda I)$. Para cualquier $\lambda_k$, soluciones no triviales de $(A-\lambda_k I)x=0$ es un autovector con autovalor $\lambda_k$. Automáticamente (y esto vino de Sturm-Liouville teoría) los autovalores son reales y los vectores propios asociados con diferentes valores propios son automáticamente ortogonal a cada uno de los otros. Por ejemplo, utilizando el complejo interior del producto, si $Ax=\lambda x$ algunos $\lambda\in\mathbb{C}$$x \ne 0$, $\lambda$ es real debido a la simetría de $A$ da $$ (\lambda\overline{\lambda})(x,x)=(Ax,x)-(x,Ax) = 0 \implica \lambda=\overline{\lambda}. $$ Y, si $Ax_1 = \lambda_1 x_1$, $Ax_2=\lambda_2 x_2$ con $\lambda_1 \ne \lambda_2$, $(x_1,x_2)=0$ debido a la simetría de $A$ da $$ (\lambda_1-\lambda_2)(x_1,x_2)=(Ax_1,x_2)-(x_1,Ax_2) = 0. $$ Ahora, si se realiza de Gram-Schmidt en los diferentes subespacios propios $\mbox{ker}(A-\lambda_k I)$, luego de obtener una base ortonormales de vectores propios de a $A$, lo que le permite ampliar $$ x = \sum_{k=1}^{n} \sum_{j=1}^{n_k}\langle x,e_{k,j}\rangle e_{k,j} $$ y, a continuación, representan el $A$ en un simple diagonal de la forma: $$ A x = \sum_{k=1}^{n} \sum_{j=1}^{n_k}\lambda_k \langle x,e_{k,j}\rangle e_{k,j} $$ Todos los de este análisis surgió del Análisis de Fourier. El Análisis de Fourier no es una generalización, pero este análisis es la especialización de Análisis de Fourier ideas para un finito-dimensional de configuración.

El Análisis de Fourier en $[-\pi,\pi]$ puede ser visto como el eigenfunction el análisis de la diferenciación operador $A = -\frac{d^2}{dx^2}$ en el dominio de las funciones de $f$ con dos de los derivados en $L^2$ y la satisfacción de $f(-\pi)=f(\pi)$, $f'(-\pi)=f'(\pi)$. El operador $A$ es simétrica con respecto a la integral del producto interior $$ (f,g) = \int_{-\pi}^{\pi}f(t)\overline{g(t)}dt. $$ Es decir, $(Af,g)=(f,Ag)$ todos los $f,g\in\mathcal{D}(A)$. Debido a esto, los autovalores de a $A$ debe ser real (el mismo argumento que el anterior) y las funciones propias correspondientes a distintos valores propios deben ser ortogonales. Las funciones propias son $$ 1,\cos(nx),\sin(nx),\;\;\; n=1,2,3,\cdots. $$ Los valores propios son $0,1^2,2^2,3^2,\cdots,n^2,\cdots$. Por ejemplo, $$ L\cos(nx) = n^2 \cos(nx),\;\;\; L\sin(nx) = n^2 \sin(nx). $$ El espacio propio para $n=0$ es unidimensional con $L 1 = 0 \cdot 1$ (en función de $1$ y el autovalor $0$.) El espacio propio para $n\ne 0$ es de dos dimensiones y es atravesado por $\sin(nx),\cos(nx)$. Es automático, $\sin(nx),\cos(nx)$ son mutuamente ortogonales a $\sin(mx),\cos(mx)$ siempre $n\ne m$. Y $\sin(nx),\cos(nx)$ son mutuamente ortogonales debido a la forma en que fue elegido (no automático). La normalizado funciones propias son \begin{align} e_0 & = \frac{1}{\sqrt{2\pi}}, \\ e_{1,1} & = \frac{1}{\sqrt{\pi}}\cos(x), e_{1,2}=\frac{1}{\sqrt{\pi}}\sin(x), \\ e_{2,1} & =\frac{1}{\sqrt{\pi}}\cos(2x),e_{2,2}=\frac{1}{\sqrt{\pi}}\sin(2x),\;\;\; \\ \vdots & = \vdots \end{align} El ortogonal de la función de expansión de $f\in L^2[-\pi,\pi]$ en estas funciones propias de $A$ es "la serie de Fourier" de $f$. Esta expansión siempre converge a $f$ en la norma de $L^2[-\pi,\pi]$. Esto constituye una de diagonalización ortogonal de la simetría del operador $A=-\frac{d^2}{dx^2}$, similar a la matriz caso.

Otros Sturm-Liouville existen problemas para $\frac{d^2}{dx^2}$. Por ejemplo, $$ Lf = -\frac{d^2}{dx^2}f \\ \cos\alpha f(a)+\sin\alpha f'(a) = 0 \\ \cos\beta f(b) + \sin\beta f'(b) = 0 $$ El dominio de $L$ aquí incluye el de arriba separados extremo de condiciones. De nuevo hay un conjunto discreto de valores propios y de todos los subespacios propios son unidimensionales. Las funciones propias correspondientes a estos autovalores son todos uno-dimensional, y cada una de las $f\in L^2[a,b]$ puede ser ampliado en un "series de Fourier" de estos ortogonal de funciones propias. $L$ es simétrica de nuevo; por lo que el eignevalues son reales y las funciones propias correspondientes a autovalores distintos son mutuamente ortogonales. Estas expansiones incluyen sine expansiones, coseno expansiones, y una variedad de otras función trigonométrica expansiones en las que los valores propios son no en todos los espaciados de manera uniforme. Y todos los de la resultante de Fourier expansiones convergen en $L^2$ a la función original.

Las generalizaciones necesarias: espacio Lineal, interior del producto y de la ortogonalidad, la norma, la aproximación en norma y la topología, simétrica y selfadjoint operadores ortogonales autovector expansiones, los operadores diferenciales, cerrado densamente definido ilimitado a los operadores, espectro.

He añadido un gráfico de desarrollo de Dieudonne "Una Historia del Análisis Funcional", de modo que usted puede ver cómo el infinito-dimensional dio lugar a lo finito-dimensional. Esto es muy al revés, en comparación con la mayoría de Matemáticas de desarrollo. La más abstracta, llegó primero y se filtra hacia abajo por un tiempo antes de invertir el curso. enter image description here

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X