La generalización que estamos buscando es el llamado análisis funcional. Como se puede sospechar, vectores de vuelta en funciones, y las matrices de vuelta en el lineal de los operadores que actúan en funciones. Base de expansiones de vuelta en la transformada de Fourier de tipo serie. Autovalores y autovectores generalizar a una zona denominada teoría espectral. Productos de puntos generalizar al interior de productos...y así sucesivamente. El mejor libro de introducción a la que conozco es "Introductorio de Análisis Funcional" por Kreyszig. Es perfecto para alguien que ha tomado álgebra lineal y tal vez un primer curso de análisis (en el nivel de "Baby " Rudin").
Aquí hay un par de detalles más:
Base De Expansiones
- En álgebra lineal, usted piensa acerca de la expansión de un vector $x$ en una base. ¿Qué significa esto? Bueno, si $x\in V$ $V$ es de un número finito de dimensiones de espacio vectorial (es decir $\text{dim}(V) = n$) podemos elegir un especial conjunto de vectores $e_1,\ldots,e_n$ tal que para cualquier $x\in V$, no son los coeficientes $\alpha_1,\ldots,\alpha_n$ tal que
$$
x = \sum_{j=1}^n\alpha_j e_j
$$ In functional analysis, you can usually do the same thing. Given a function $f\X$, where $X$ is now a vector space of functions, one can usually find a special infinite sequence $e_1(x),e_2(x),\ldots$ such that for any $f\X$, there are coefficients $\alpha_1,\alpha_2,\ldots$ que
$$
f(x) \stackrel{X}{=} \sum_{j=1}^\infty\alpha_j e_j(x)
$$ Since this is an infinite sum, you have to be much more careful about what you mean by $=$, hence putting an $X$ on top to indicate that this is `equality in the sense of the vector space $X$'. This becomes more precise when you talk about norms, inner products, and metrics. An example would be the so-called Hilbert space $L^2([0,1])$, donde la igualdad significa
$$
\lim_{n\rightarrow\infty} \int_0^1\left\vert f(x) - \sum_{j=1}^n \alpha_j e_j(x)\right\vert ^2 dx = 0
$$ Otros ejemplos, obviamente, también existen, pero no voy a entrar en ello. Desde que suena como que usted está interesado en serie de Fourier, usted será feliz de saber que esto es exactamente lo que estoy hablando: si usted toma
$$
e_k(x) = \exp(2\pi i kx)
$$, then any $f\en L^2([0,1])$ will have coefficients $\alpha_{\pm 1},\alpha_{\pm 2},\ldots$ such that $ f= \sum_{k=-\infty}^\infty \alpha_k\exp(2\pi ikx)$, where again $=$ means "in the $L^2$ sentido".
Al igual que en dimensiones finitas, un papel especial desempeñado por bases ortonormales en infinitas dimensiones. En dimensiones finitas, si usted tiene una base $e_1,\ldots,e_n$ que es ortonormales, entonces siempre se puede escribir los coeficientes de dilatación como productos de puntos:
$$
x = \sum_{j=1}^n (x\cdot e_j) e_j
$$ In some function spaces, you have a generalization of the dot product called an inner product, written usually as $\langle f,g\rangle$. While there are many inner products, the most popular ones tend to be the $L^2$ interior de los productos:
$$
\langle f,g\rangle_{L^2([a,b])} = \int_a^b f(x)\overline{g(x)} dx
$$ Then, if $e_1,\ldots$ is an orthonormal basis for $L^2([a,b])$, usted puede escribir
$$
f(x) \stackrel{L^2}{=} \sum_{j=1}^\infty \langle f,e_j\rangle e_j(x)
$$
Algunas veces usted no tiene un producto interior, por lo que "ortonormales base" tiene sentido (no tengo manera de medir los ángulos). Pero, usted todavía puede hacer la base de expansiones, que sólo podría ser más difícil para calcular los coeficientes de dilatación. Hay libros enteros sobre este tema - ver, por ejemplo, Una capa de Imprimación sobre la Base de la Teoría Heil o Marcos y Bases por Christensen.
Lineal De Operadores
- En álgebra lineal, se trabaja mucho con las matrices, que son representaciones de la linealidad de los operadores de $L:V\rightarrow W$ donde $V$ $W$ son dos espacios vectoriales con dimensión$n$$m$. La matriz es una representación porque debemos elegir las bases para $V$ $W$ a fin de definir! Suponiendo que se ha seleccionado bases, a continuación, puede escribir una matriz de $A$ tal que
$$
(\Alpha)_i = \sum_{j=1}^n A_{ij}\alpha_j,\quad 1\leq i\leq m
$$ where $\alpha$ is the vector of coefficients representing $x\in V$. Esto se generaliza a las funciones de la misma manera, excepto que usted necesitará un infinito de la matriz:
$$
(\Alpha)_i = \sum_{j=1}^\infty A_{ij} \alpha_j,\quad 1\leq i\leq m
$$ Here $m$ can either be finite or infinite, depending on the dimension of $W$.
Otra perspectiva lineal de operadores trata de pensar acerca de la generalización de la matriz-vector de productos de sumas de integrales. A grandes rasgos, se puede imaginar que como $n\rightarrow \infty$, usted podría tener
$$
\sum_{j=1}^n A_{ij}\alpha_j \longrightarrow \int_{0}^1 a(x,y) f(y) dy
$$ in the appropriate sense. Here $A(x,y)$ es ahora una función, así como la sospecha, matrices de vuelta en funciones. Esta perspectiva es muy útil, ya que surge en la teoría de funciones de Green, elementos finitos, y las ecuaciones integrales.
Una cosa que quiero mencionar es que los temas de dominio y el rango que ser mucho más sutil. Mientras que en los de dimensiones finitas, es bastante simple para hablar sobre el dominio y el rango de un operador lineal, usted puede tener problemas con infinitas dimensiones de los operadores que tienen que ver con boudnedness. Por ejemplo, el operador de la derivada de $L = \frac{d}{dx}$ es muy importante operador lineal para estudiar. Sin embargo es "ilimitado" en la mayoría de los "estándar" de los espacios de funciones. Esta es, esencialmente, porque podemos tener "pequeños" de las funciones que ser muy "grande" después de la diferenciación de tomar $f(x) = \epsilon \sin(x/\epsilon^2)$ donde $\epsilon$ es un número muy pequeño, por ejemplo. $f(x)$ es muy "pequeño" porque tiene una muy pequeña amplitud, sino $f^\prime(x)=\frac{1}{\epsilon}\cos(x/\epsilon^2)$ es muy "grande".
Autovalores y Autovectores
- En álgebra lineal, de hacer la pregunta en cuanto a si un operador lineal $L$ existen especial $v_j\in V$ $\lambda_j\in \Bbb{C}$ tal que
$$
Lv_j = \lambda_jv_j
$$ You can do the same in functional analysis, with a few extra technical details (for instance, instead of finitely many eigenvalues or even countably infinitely many, you can have an entire interval of eigenvalues). Eigenvalues are still called eigenvalues, but eigenvectors are usually called eigenfunctions. A great example is the differentiation operator: if $L = \frac{d}{dx}$, without getting too technical, you can think about any exponential function $v(x) = \exp(\lambda x)$ as being an eigenfunction of $L$ with eigenvector $\lambda$, ya que
$$
(Lv)(x) = \lambda v(x)
$$ Furthermore, the spectral decomposition of a Hermitian matrix (Hermitian means A = A^\dagger), usually written $A = Q\Lambda Q^\daga$, where $\Lambda$ is a diagonal matrix and $P$ is a unitary matrix, turns into something called the spectral theorem of self-adjoint operators, which states that any bounded "self-adjoint" (also a symmetry condition) operator $L$ will have a decomposition of the form $L = U T_\lambda U^\daga$ where $U$ is a unitary operator and $T_\lambda$ is a multiplication operator (the generalization of a diagonal matrix). An example of this is the relationship between convolution and the Fourier transform. Say we define a linear operator $L$ de la siguiente manera:
$$
(L_kf)(x) = \int_{-\infty}^\infty k(x-y)f(y)dy
$$ Then, with some conditions on $k$, one can prove that this operator is bounded and self-adjoint, and furthermore, we have a "spectral decomposition" of $L$ de la forma
$$
L = \mathcal{F}^*T_\lambda \mathcal{F}
$$ where $\mathcal{F}$ es la (unitario) la transformada de Fourier:
$$
(\mathcal{F}f)(\xi) = \int_{-\infty}^\infty f(x)\exp(-2\pi i \xi x) dx
$$ Esto es a veces escrito como
$$
(Lf)(x) = \mathcal{F}^{-1} [\hat{k}(\xi)\hat{f}(\xi)]
$$ In other words, the eigenvalues of $L_k$ are given by $\hat{k}(\xi)$ (a continuum of them!) and the eigenfunctions of $L_k$ son las exponenciales complejas.