59 votos

¿Qué significa que dos funciones sean "ortogonales" y por qué es importante?

A menudo me he encontrado con el concepto de ortogonalidad y funciones ortogonales, por ejemplo, en las series de Fourier las funciones base son el cos y el seno, y son ortogonales. Para los vectores, ser ortogonal significa que son realmente perpendiculares y que su producto punto es cero. Sin embargo, no estoy seguro de cómo el seno y el coseno son realmente ortogonales. Están desfasados en 90, pero debe haber una razón diferente por la que se consideran ortogonales. ¿Cuál es esa razón? ¿Ser ortogonal realmente tiene algo que ver con la geometría, es decir, ángulos de 90 grados?

¿Por qué queremos tener cosas ortogonales tan a menudo en matemáticas? Especialmente con transformaciones como la de Fourier, queremos tener bases ortogonales. ¿Qué significa eso? ¿Hay algo mágico en que las cosas sean ortogonales?

1 votos

Trabajar con bases ortogonales es muy cómodo, puede ser

0 votos

Seno y coseno es ortogonal en $L_2$ ; "están desfasados 90" es independiente de ello.

39voto

BasicTek Puntos 11

El concepto de ortogonalidad con respecto a las funciones es como una forma más general de hablar de ortogonalidad con respecto a los vectores. Los vectores ortogonales son geométricamente perpendiculares porque su producto punto es igual a cero. Cuando se toma el producto puntual de dos vectores, se multiplican sus entradas y se suman; pero si se quiere tomar el producto "puntual" o interno de dos funciones, se las trataría como si fueran vectores con infinitas entradas y tomar el producto puntual se convertiría en multiplicar las funciones juntas y luego integrar sobre algún intervalo. Resulta que para el producto interior (para un número real arbitrario L) $$<f,g> = \frac{1}{L}\int_{-L}^Lf(x)g(x)dx$$ las funciones $sin(\frac{n\pi x}{L})$ y $cos(\frac{n\pi x}{L})$ con números naturales n forman una base ortogonal. Es decir $<sin(\frac{n\pi x}{L}),sin(\frac{m\pi x}{L})> = 0$ si $m \neq n$ y es igual a $1$ en caso contrario (lo mismo ocurre con el Coseno). De modo que cuando expresas una función con una serie de Fourier en realidad estás realizando el proceso de Gram-Schimdt, proyectando una función sobre una base de funciones Seno y Coseno. Espero que esto responda a tu pregunta.

1 votos

Gram-Schimdt... ok voy a leer sobre este tipo también, me pregunto por qué necesitamos 2 funciones de base ortogonales y no 3 o más y por qué tenemos funciones de base ortogonales en wavelets también pero de un tipo diferente (no seno y cos). Mi pregunta principal iba a ser sobre las ondículas, pero hice esta pregunta para obtener una mayor comprensión básica de la ortogonalidad y las funciones de base.

1 votos

@quantum231 No hay dos funciones base (esto implicaría que el espacio de las funciones con series de fourier es bidimensional, lo cual no es así) - hay infinitas, $\sin(nx)$ y $\cos(nx)$ para números enteros no negativos $n$ . Esto se basa en el hecho de que $e^{in\theta}$ para los enteros $n$ (positivas y negativas) forman una base de funciones continuas $f: \mathbb{C} \to \mathbb{C}$ .

0 votos

Me gusta la idea de que sea un producto punto sobre vectores con infinitas componentes, pero me confunde $1/L$ . Eso no está en el típico producto punto: no se divide por el número de componentes después de sumar.

18voto

john Puntos 675

Los vectores son ortogonales no si tienen un $90$ La ortogonalidad real se define con respecto a un producto interior. Lo que ocurre es que para el producto interior estándar sobre $\mathbb{R}^3$ si los vectores son ortogonales tienen un $90$ ángulo entre ellos. Podemos definir muchos productos internos y hablamos de ortogonalidad si el producto interno es cero. En el caso de las series de Fourier el producto interior es:

$$ \langle \, f ,g\rangle = \int_{-\pi}^{\pi} f(x) g(x)^* dx$$

y de hecho $\langle \sin ,\cos\rangle = \int_{-\pi}^{\pi} \sin(x) \cos(x) dx = 0 $ ya que el integrando es impar.

Y sí hay algo especial en que las cosas sean ortogonales, en el caso de la serie de fourier tenemos una base ortogonal $e_0(x), \dots, e_n(x),\dots$ de todos $2\pi$ funciones periódicas. Dada cualquier función $f$ si queremos escribir $f$ en esta base podemos calcular los coeficientes de los elementos de la base simplemente calculando el producto interior. Ya que:

$$ f(x) = \sum_{k= 0}^{\infty} a_k e_k(x)$$

$$ \langle \, f ,e_i\rangle = \int_{-\pi}^{\pi} f(x) e_i(x)^* dx = \int_{-\pi}^{\pi} \sum_{k= 1}^{\infty} a_k e_k(x) e_i(x)^* dx $$

$$ \sum_{k= 0}^{\infty} a_k \int_{-\pi}^{\pi} e_k(x) e_i(x)^* dx$$

Y ahora mágicamente por la ortogonalidad:

$$ = \sum_{k= 1}^{\infty} a_k \delta_{i,k} = a_i$$

Así que podemos escribir cualquier función directamente en la base ortogonal:

$$ f(x) = \sum_{k= 0}^{\infty} \langle \, f ,e_k\rangle e_k(x)$$

0 votos

Ecuación razonable

6voto

Theo Bendit Puntos 2468

La ortogonalidad, como parece saber, proviene originalmente de la geometría. Hablamos de que dos vectores (es decir, segmentos de línea dirigidos) son ortogonales cuando forman un ángulo recto entre sí. Cuando se tienen vectores ortogonales, se pueden aplicar cosas como el teorema de Pitágoras, que es un teorema bastante claro cuando se piensa en él, y que debería dar una idea del poder de la ortogonalidad.

El producto punto nos permite hablar de ortogonalidad un poco más algebraicamente. En lugar de considerar segmentos de línea dirigidos, podemos considerar elementos de $\mathbb{R}^n$ en su lugar. La ortogonalidad se traduce en un producto punto igual a cero.

Ahora, la ortogonalidad que se ve al estudiar las series de Fourier es de nuevo un tipo diferente. Hay un concepto muy común y ampliamente utilizado de un espacio vectorial, que es un conjunto abstracto con algunas operaciones sobre él, que satisface algo así como $9$ lo que hace que funcione de forma muy parecida a $\mathbb{R}^n$ en muchos aspectos. Podemos hacer cosas como sumar los "vectores" y escalar los "vectores" por alguna constante, y todo se comporta de forma muy natural. El conjunto de funciones de valor real sobre cualquier conjunto es un ejemplo de espacio vectorial. Esto significa que podemos tratar las funciones como si fueran vectores.

Ahora bien, si podemos tratar las funciones como vectores, ¿quizás también podamos hacer algo de geometría con ellas y definir un concepto equivalente al de producto punto? Resulta que, en ciertos espacios vectoriales de funciones, podemos definir una noción equivalente a la de producto puntual, en la que podemos "multiplicar" dos "vectores" (léase: funciones), para devolver un escalar (un número real). Este producto se denomina "producto interno", y también se define mediante un puñado de axiomas, para asegurar que se comporta como esperamos. Definimos que dos "vectores" son ortogonales si su producto interior es igual a $0$ .

Cuando se estudian las series de Fourier, se observa específicamente el espacio de los cuadrados (Lebesgue) integrables $L^2{[-\pi, \pi]}$ que tiene un producto interno, $$\langle f, g \rangle := \int_{-\pi}^{\pi} f(x)g(x) \mathrm{d}x.$$ Decir funciones $f$ y $g$ son ortogonales significa decir que la integral anterior es $0$ . Las series de Fourier no son más que una serie para expresar funciones en $L^2{[-\pi, \pi]}$ como una suma infinita de funciones ortogonales.

Ahora, utilizamos la ortogonalidad de las funciones porque realmente produce resultados muy buenos. Las series de Fourier son una forma muy eficiente de aproximar funciones, y muy fácil de trabajar en términos de cálculo. Cosas como el teorema de Pitágoras siguen siendo válidas y resultan muy útiles. Si quieres saber más, te sugiero que estudies las series de Fourier y/o los espacios de Hilbert.

0 votos

Nunca me encontré con el término producto interior, o puede que sí pero nunca tuve que utilizarlo. Tengo formación en ingeniería electrónica. Mi pregunta principal iba a ser por qué las funciones de base en las ondículas tienen que ser ortogonales, pero por ahora, voy a procesar lo que todo el mundo ha escrito aquí.

4voto

jball Puntos 14152

Tienes razón, "ortogonal" requiere una definición. La idea es que se necesita alguna idea de un producto interno.

Un producto interno, sobre un espacio vectorial, $V$ sobre un campo de escalares, $F$ es una función $\langle \cdot , \cdot \rangle \colon V \times V \to F$ satisfaciendo algunas propiedades (fáciles de encontrar en cualquier libro de álgebra lineal o en Wikipedia). Por ejemplo, el producto punto en $\Bbb{R}^n$ es un producto interno.

Llamamos a dos vectores, $v_1,v_2$ ortogonal si $\langle v_1, v_2 \rangle=0$ .

Por ejemplo $(1,0,0) \cdot (0,1,0)=0+0+0=0$ por lo que los dos vectores son ortogonales.

Así, si tenemos un espacio vectorial de funciones, a espacio funcional . Por ejemplo, $L^2([-\pi,\pi])$ las funciones cuadradas integrables, de valor complejo, sobre $[-\pi,\pi]$ podemos definir un producto interno como

$$\langle f, g \rangle = \frac{1}{\pi}\int_{-\pi}^{\pi} f^{\ast}(x)g(x) dx $$

Dos funciones son ortogonales si $\frac{1}{2\pi}\int_{-\pi}^{\pi} f^{\ast}(x)g(x) dx=0$ . Por ejemplo $\sin(x),\cos(x)$ son ortogonales.

¿Por qué nos importa? Bueno, por la serie de Fourier. Para las series de Fourier, se expande una función en $L^2([-\pi,\pi])$ como una suma de cosenos y senos. ¿Cómo se calculan los coeficientes?

Tenga en cuenta que $\langle \sin(nx),\sin(mx)\rangle = \delta_{n,m}$ . Es $1$ si $n=m$ y $0$ otra cosa. Lo mismo con el coseno, y la mezcla $\sin$ y $\cos$ son $0$ . Esto forma un ortonormal base. Esto significa que todos los vectores base son ortogonales, y el producto interno de cualquier vector base consigo mismo es $1$ . Esto nos da una forma de calcular las series de Fourier.

Básicamente asumimos $f(x)=\sum a_n \cos(nx)+b_n \sin(nx)$ . Entonces, anota:

$$\langle \sin(mx),f(x) \rangle = \langle \sin(mx),\sum a_n \cos(nx)+b_n \sin(nx) \rangle = b_m$$

Así que podemos averiguar toda la serie.

1 votos

Lo que realmente quería saber es, por qué necesitamos tener exactamente 2 funciones que sean ortogonales y usarlas como base para crear una "transformación". Ese es el punto que no tiene sentido. También podemos representar la serie de Fourier como una suma de exponenciales complejas e^jwt o de un coseno con fase, es decir, cos(wt + phi) en lugar de sin y cos. ¿Por qué entonces pensar que la serie de Fourier es la suma de dos funciones ortogonales? (sí, lo he dicho dos veces)

0 votos

@quantum231 "Lo que realmente quería saber es, por qué necesitamos tener exactamente 2 funciones que sean ortogonales y usarlas como base para crear una "transformación". "La base de Fourier no es "exactamente 2 funciones". Consiste en infinitas funciones con frecuencias cada vez más altas. Si quieres usar números reales, tienes 2 series infinitas de coeficientes. Pero si quieres usar números complejos, entonces tienes una sola serie de coeficientes complejos. No más sin y cos - sólo exponente complejo: f(x) = Sum{n = -N a N} c[n]*exp(i*2pi n x/P)

3voto

user291977 Puntos 1

simplemente en la mecánica cuántica las funciones ortogonales iguales a cero significa que no hay solapamiento entre ellas. cada función representa el estado de energía y para los estados no degenerados no se encuentra el solapamiento entre los estados. en forma vectorial significa que no hay proyección de cada vector sobre otro vector como el vector unitario i, j, k son los vectores base.

saludos

ali nasir imtani

0 votos

¿Qué quiere decir que dos funciones no se solapan? ¿Se refiere a $f \cap g = \emptyset$ ? Convencionalmente dos funciones $f$ y $g$ son ortogonales en un intervalo si $\int_a^b f(x) g(x)dx = 0$ . ¿Existe alguna relación entre estas definiciones?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X