9 votos

Confusión con la derivada de la función Delta de Dirac.

Así que mi instructor me dijo que $$L(\delta(t)) = 1 $$

Y eso $$\delta * f(t) = f(t)$$

Para cualquier $f(t)$ Así que $$\delta *1 = 1.$$

Pero esto es $$\int_0^{t}\delta(z)dz.$$

Así que $$(1)' = 0 = (\int_0^{t}\delta(z)dz)' = \delta(t).$$

Pero entonces no tendríamos $$L(\delta) = 0\neq 1?$$

¿He entendido algo mal? ¿Cómo podemos conciliar estos hechos?

Estoy utilizando la siguiente definición de la convolución: $$f*g = \int_0^t f(t-z)g(z)dz$$

0 votos

$(\int_0^{t}\delta(z)dz)' = \delta'(t)$ no es correcto.

0 votos

La definición de la convolución es $(f*g)(t)=\int_{-\infty}^{\infty} f(x)g(t-x) dx$ , lo que da $1=\int_{-\infty}^{\infty}\delta(x)dx$

0 votos

$f \ast g(t) = \int_{-\infty}^\infty f(z) g(t-z)dz$ se reduce a $\int_{0}^t f(z) g(t-z)dz$ sólo cuando $f(t) = g(t) = 0$ para $t \le 0$

9voto

Hamed Puntos 1264

Bien, déjame unir todos los comentarios en una respuesta. Prácticamente todos los comentarios anteriores tocan una cuestión importante, pero estos puntos no están separados unos de otros.

Primero mi propio comentario. La definición "correcta" de una convolución de dos funciones $f,g:\mathbb{R}\to \mathbb{R}$ es $$ (f*g)(t)=\int_{-\infty}^\infty f(x)g(t-x)dx $$ Has explicado en un comentario que estás utilizando una definición menos convencional en tu clase. Pero al hacerlo te encuentras con un problema y por una buena razón. Supongo que tu definición es (y denotaré tu "convolución" por $f\star g$ para hacer una distinción) $$ (f\star g)(t)=\int_0^t f(x)g(t-x)dx $$ Pero, ¿en qué circunstancias son equivalentes ambas definiciones? Como señala @user1952009 $f*g$ se reduce a $f\star g$ sólo si $f(t)=g(t)=0$ para todos $t\leq 0$ .

Ahora viene el problema que te encuentras: Es cierto que bajo la verdadera convolución $\delta * f=f$ para cualquier función $f$ De hecho, es más apropiado tomar esto como la definición de $\delta$ . Pero $\delta \star f=f$ sólo para funciones $f$ tal que $f(t)=0$ para todos $t\leq 0$ . Como resultado, si $f=1$ entonces $$ 1\neq \int_0^t \delta(x)dx $$ desde $1$ no es cero para $t\leq 0$ . Pero, ¿qué es esta integral? Como menciona @paul $d/dt\int_0^t \delta(x) dx\neq \delta'(t)$ , en realidad $=\delta(t)$ . Esto nos lleva al punto de @tst. Por definición, $\int_0^t \delta(x) dx$ es la antiderivada de $\delta$ como acabamos de ver por el teorema fundamental del cálculo (suponiendo que tenga sentido para la "función" delta). Pero, ¿qué puede ser esta función? Bueno, tiene que ser más o menos como la función constante $1$ excepto que debe desaparecer para $t\leq 0$ . Esta es exactamente la función escalonada $$ \theta(t) = \begin{cases} 1 & t>0\\ 0 & t\leq 0 \end{cases}=\int_0^t \delta(x) dx $$ Así que permítanme concluir mi primera parte de la respuesta: La definición $f\star g$ para la convolución está bien siempre y cuando se tenga en cuenta que definido para funciones que desaparecen para números no positivos.


En esta parte, exploraremos un poco en torno a lo que este $\delta$ - "función" es en realidad. Al hacerlo, espero aclarar algunas cosas. Como he dicho, tomemos como definición $$ f(t)=\int_{-\infty}^\infty \delta(x)f(t-x)dx= \int_{-\infty}^\infty f(x) \delta(t-x)dx\qquad(1) $$ para todos $f$ .

Punto I: Dejemos que $a<b$ y considerar $\rho(x)=\theta(x-a)-\theta(x-b)$ que es cero en $(-\infty, a]\cup(b, \infty)$ y una en $(a,b]$ . Lo que se encuentra entonces es $$ f(t)\rho(t)= \int_{a}^b f(x) \delta(t-x)dx\Longrightarrow \begin{cases} f(t)=\int_{a}^{b} \delta(t-x)f(x)dx & a<t\leq b\\ 0=\int_{a}^{b} \delta(t-x)f(x)dx & \text{otherwise} \end{cases} $$ En realidad, definiendo una función $\tilde{\theta}(x)$ tal que $\tilde{\theta}(0)=1$ y $\tilde{\theta}(t)=\theta(t)$ para $t\neq 0$ se puede probar realmente $$ \begin{cases} f(t)=\int_{a}^{b} \delta(t-x)f(x)dx & a{\color{red}\leq } t\leq b\\ 0=\int_{a}^{b} \delta(t-x)f(x)dx & \text{otherwise} \end{cases} $$ retirada del mercado $a{\color{red}<}b$ en todo.

Punto II: Ahora considere un incluso función $f$ . Entonces $$ f(t)=f(-t)=\int_{-\infty}^\infty \delta(x)f(-t-x)dx= \int_{-\infty}^\infty\delta(x)f(t+x)dx= \int_{-\infty}^\infty\delta({\color{red}-x})f(t-x)dx $$ Supongamos ahora que $f$ es en cambio impar entonces $$ f(t)=-f(-t)=\int_{-\infty}^\infty \delta(x)[-f(-t-x)]dx= \int_{-\infty}^\infty\delta(x)f(t+x)dx= \int_{-\infty}^\infty\delta({\color{red}-x})f(t-x)dx $$ Consideremos ahora una función general $f(x)$ . Definir $e(x)=[f(x)+f(-x)]/2$ y $o(x)=[f(x)-f(-x)]/2$ . Entonces $f(x)=e(x)+o(x)$ . Como resultado, acabamos de descubrir que $$ f(t)=\int_{-\infty}^\infty \delta(x)f(-t-x)dx= \int_{-\infty}^\infty\delta({\color{red}-x})f(t-x)dx $$ Por lo tanto, hasta ahora $\delta(x)$ y $\delta(-x)$ interactuar con la función, tenemos $\delta(x)=\delta(-x)$ . Por abuso de lenguaje decimos $\delta$ es una "función" uniforme .

Punto III: Combinando los dos puntos $$ \begin{cases} f(t)=\int_{a}^{b} \delta(x-t)f(x)dx & a\leq t\leq b\\ 0=\int_{a}^{b} \delta(x-t)f(x)dx & \text{otherwise} \end{cases} $$ para todas las funciones $f$ y todos $a<b$ . Específicamente estoy interesado en el caso de $t=0$ : $$ \begin{cases} f(0)=\int_{a}^{b} \delta(x)f(x)dx & a\leq 0\leq b\\ 0=\int_{a}^{b} \delta(x)f(x)dx & \text{otherwise} \end{cases}\qquad(2) $$ Si miras fijamente la ecuación anterior el tiempo suficiente, tratando de racionalizarla y reconciliarla con la intuición ordinaria de la función, te darás cuenta de que, la integrad $\delta(x)f(x)$ es, de alguna manera, aniquilar completamente todos los detalles de la función $f(x)$ excepto en el punto $x=0$ . Es como si este $\delta$ "función" es cero en todas partes menos en el origen . Si se quiere llevar la agenda de la "función" aún más lejos, entonces se pregunta: ¿cuál es el valor de $\delta(0)$ ? Bueno, sabemos que $1=\int_{-\infty}^\infty \delta(x) dx$ . Esto sería imposible si $\delta(0)$ es cualquier número finito, ¡ya que entonces la integral es cero! En realidad, esto significa inmediatamente $\delta(x)$ NO es una función. Pero si uno está realmente apegado a sus funciones, entonces puede decir $\delta(0)=\infty$ .

Ejercicio: Se parte de (2) y se demuestra (1), es decir, se puede tomar de forma equivalente $(2)$ como la definición de la función delta.

Entonces, ¿estoy diciendo "esencialmente que me están enseñando un marco totalmente contradictorio para la función delta de Dirac"? No, en realidad no. Espero que nunca tengas que enseñar la función delta de Dirac a personas que la ven por primera vez. Porque, vaya, ¡es un reto desde el punto de vista educativo! Sea cual sea el enfoque que elija el profesor, algo falla. Si el profesor lo hace todo de forma completamente rigurosa, la intuición esencial de la función delta de Dirac se perderá por completo en todas las manipulaciones integrales con las que los alumnos aún no se sienten del todo cómodos. Si por el contrario, el profesor opta por hacer el "en todas partes cero excepto en el origen, ahí es infinito" entonces nacen confusiones como la que acabas de tener (y muchas otras que he visto a lo largo de los años). Mi sugerencia: Aprende ambos enfoques al mismo tiempo, lucha por reconciliarlos juntos y averigua hasta dónde puedes doblar la imagen engañosa y errónea de la teoría de funciones hasta que se rompa.


Por último, la transformada de Laplace. Por definición, la transformada de Laplace de una función es $$ L[f]=\int_0^\infty f(x)e^{-sx}dx $$ Si se insiste en hacer lo mismo con la "función" delta (que en realidad tiene un significado muy preciso en teoría de la distribución ), entonces $$ L[\delta] = \int_0^\infty \delta(x) e^{-sx}dx = 1 $$ Ahora entendamos lo que $\delta'(x)$ medios. Uno define $\delta'(x)$ a través de $$ \int_{-\infty}^\infty \delta'(x) f(x)dx=-f'(0) $$ de nuevo la motivación teórica de esta definición es integración por partes . Una derivación más rigurosa de la definición anterior como la "derivada" de la función delta necesita que digamos "¿qué diablos hace la derivada de una cosa que no es una función ( distribución ) $\delta(x)$ significa". Para eso hay que leer un poco y no puedo contenerlo aquí. Aquí la función "errónea" la imagen teórica y la integración por partes nos permiten ser descuidados y no tratar esta delicada cuestión.

Dicho esto, ahora la transformada de Laplace se convierte en $$ L[\delta']=\int_0^\infty \delta'(x) e^{-sx}dx =s $$ Obsérvese que, en general, para una función $f:[0, \infty)\to \mathbb{R}$ , uno tiene $L[f']=sL[f]-f(0)$ . En cierto sentido, y no lo tomes demasiado en serio, el fracaso de $\delta$ de ser una función se plasma en que $L[\delta']=sL[\delta]$ que sólo está desactivado hasta una "constante" (como polinomio en $s$ ), aunque supuestamente esa constante es $\delta(0)=\infty$ ¡! Una vez más, no hay que darle demasiada importancia a esta última parte.

0 votos

Debe ser $\int_{-\infty}^\infty \delta'(x) f(x)dx=-f'(0)$ . No puedo editar tu mensaje porque mi edición es demasiado corta

5voto

tst Puntos 420

Primero hay que entender qué es la "función" delta. Construyámosla como un límite. Sea $$f_n(x) = n \,\mathbf{1}_{[-1/2n,1/2n]}(x), $$ con $\mathbf{1}_A$ la función indicadora del conjunto $A$ . Las funciones $f_n$ son funciones escalonadas simples, que toman el valor 0 para $|x|>1/2n$ y el valor $n$ para $|x|\le1/2n$ .

Ahora vamos a definir la función $$ f(x) = \lim_{n\to\infty}f_n(x)$$ y se pregunta qué significado puede tener este límite. Trivialmente vemos que si $x\ne0$ entonces el límite puntual $\lim_{n\to\infty}f_n(x)$ tiene sentido y es 0.

¿Qué sucede cuando $x=0$ ? Entonces tenemos $\lim_{n\to\infty}f_n(0)=\infty$ . Esto implica que nos equivocamos al suponer que $f(x)$ era una función para empezar. Además, el hecho de que el límite puntual en 0 sea infinito implica que no podemos tener ninguna forma de convergencia más fuerte. Así que vamos a probar con otras más débiles.

En primer lugar, observe que para todos los $n$ tenemos $$ \int_{-\infty}^\infty f_n(x) dx =1 $$ por lo que podemos definir razonablemente $$ \int_{-\infty}^\infty f(x) dx =1. $$ Así que $f$ no es realmente una función, pero nos complace asignar un valor a su integral.

Ahora toma $\phi$ sea suave y esté acotada en $\mathbb{R}$ . Entonces, ¿cuál es el valor de $$ I_n(\phi) := \int_{-\infty}^\infty f_n(x) \phi(x) dx? $$

Desde $\phi$ es suave se mantiene $\phi(x)=\phi(0)+O(x)$ (Teorema de Taylor). OK, vamos a conectarlo: $$ I_n(\phi)= \int_{-\infty}^\infty n \,\mathbf{1}_{[-1/2n,1/2n]}(x) \phi(0) dx +\int_{-\infty}^\infty n \,\mathbf{1}_{[-1/2n,1/2n]}(x) O(x) dx. $$ Esto implica que $$ I_n(\phi)= \phi(0) +O(1/2n). $$ Así que nos complace decir que $$ I(\phi) := \lim_{n\to\infty}\int_{-\infty}^\infty f_n(x) \phi(x) dx = \phi(0). $$

Ahora la pregunta es qué objeto es la función delta, $f$ o $I$ ? Si es usted físico, probablemente su respuesta sea $f$ . Si usted es un matemático, su respuesta es probablemente $I$ .

El problema de la respuesta del físico es que dirías cosas como "la función delta es infinita en 0 y 0 en todas las demás partes", lo cual está bien pero puede ser problemático. Veamos eso. Dejemos que $$g_n(x) = n \,\mathbf{1}_{[-1/n,1/n]}(x) $$ y como se hizo anteriormente definir $$ g(x) = \lim_{n\to\infty} g_n(x). $$ Entonces para la "función" $g$ podemos decir exactamente lo mismo que arriba. ¿Es sin embargo la función delta? No lo es porque su integral es 2 y no 1. El límite es en realidad 2 veces la función delta.

Así que vamos a tu pregunta. ¿Cuál es el valor de $ 1*\delta$ ? La respuesta depende de tu definición de convolución. Hemos visto que es razonable escribir $$ \int_{-\infty}^\infty \delta(x)dx=1. $$ Por otro lado, la integral $$ \int_{-x_0}^x \delta(t)dt $$ con algunos $x_0>0$ es una función de $x$ . Para $x<0$ es 0 y para $x>0$ es 1. Podemos asignar un valor a $x=0$ si lo necesitamos. Esta es la función escalón de Heaviside y es razonable decir que es la antiderivada de la función delta. He tomado $x_0>0$ para evitar el problema en 0. Sin embargo, podemos hacer lo mismo con su definición de convolución.

Un poco sobre las hiperfunciones.

Las hiperfunciones llevan el análisis complejo al análisis real. Lo cual, personalmente, me parece muy bueno. Así que la idea es representar funciones generalizadas como la diferencia de 2 funciones analíticas.

A partir de ahora diré cosas como " $f$ es analítico en $\mathbb{R}$ ". Esto significa que existe un conjunto abierto $A\in\mathbb{C}$ de manera que contenga $\mathbb{R}$ y $f$ es analítico en $A$ .

¿Cómo funciona? Obviamente, si se toman 2 funciones analíticas en $\mathbb{R}$ entonces su diferencia también es analítica en $\mathbb{R}$ . Así que no ganamos nada. Pero por otro lado, si tomamos una función $F_+$ analítica en el semiplano superior abierto y una función $F_-$ analítica en el semiplano inferior entonces su diferencia no tiene sentido ya que no hay ningún dominio donde se definan ambas. :)

¡Sin embargo! ¡Podemos ser capaces de definir la diferencia de sus límites!

Empecemos por definir qué es una hiperfunción. Denotamos una hiperfunción por $F=[F_+,F_-]$ y decimos que la hiperfunción $F$ tiene $F_+$ como componente superior y $F_-$ como componente inferior, con $F_+$ y $F_-$ como en el caso anterior.

Entonces, ¿cómo actúa en las funciones de prueba? Dejemos que $\phi$ sea una función analítica en $\mathbb{R}$ que disminuye exponencialmente hacia el infinito real. Sea $A(\mathbb{R})$ sea el espacio de todas las funciones de este tipo. Vemos que este espacio es un subespacio del espacio de Schwartz. Entonces definimos $$ F[\phi] = \int_{\mathbb{R}+\epsilon i} F_+(z)\phi(z)dz - \int_{\mathbb{R}-\epsilon i} F_-(z)\phi(z)dz. $$ Así que integramos justo por encima y por debajo de la línea real y tomamos la diferencia. Esto significa que $F$ está en el dual de $A(\mathbb{R})$ Así que vamos a ver cuántos elementos del dual podemos representar.

Dejemos que $$I(\phi) = \int_{\mathbb{R}} \phi(z) dz $$ Entonces, obviamente, podemos escribir $$ I = [1,0]=[1/2,-1/2]=[0,-1]. $$ Esto trae a colación un punto importante sobre las hiperfunciones: dejemos que $\psi\in C^\omega(\mathbb{C})$ entonces $$ F=[F_+,F_-] =[F_++\psi,F_-+\psi]. $$ Esto viene del hecho de que restamos las 2 integrales. Así que la definición adecuada para el espacio de las hiperfunciones requiere a tomar el modulo con una relación de equivalencia adecuada (que probablemente puede adivinar) pero no voy a entrar en detalles sobre eso.

¿Qué más podemos hacer? Definamos $$ J(\phi) = \int_0^\infty \phi(z) dz. $$ Trivialmente se sostiene $$ J(\phi)=I(H\cdot\phi), $$ con $H$ la función escalonada de Heaviside. Definamos $$ J = [-\frac{1}{2 \pi i}\log(-z),-\frac{1}{2 \pi i}\log(-z)], $$ entonces afirmo que $J$ es en realidad la función escalonada de Heaviside. No voy a repasar esto, pero es relativamente sencillo verlo usando la definición $\log(z) = \int_1^z \frac{1}{t}dt$ . Lo que hace que esto funcione es que para $x<0$ el valor del logaritmo es el mismo, sin embargo para $x>0$ depende de la vía de integración.

Ahora vamos a hacer la función delta. Definimos como siempre $$\delta(\phi) = \phi(0).$$ Recordemos la integral de Cauchy que dice que si una función es analítica en una vecindad del origen entonces $$ \frac{1}{2\pi i} \oint_C \frac{f(\zeta)}{\zeta} d\zeta = f(0) $$ y definir $$ \delta = [-\frac{1}{2\pi i z},-\frac{1}{2\pi i z}]. $$ Entonces, ¿qué sentido tiene esto? En primer lugar, observe que para todos los $x\ne0$ los valores de las "dos" funciones son iguales, por lo que el valor de la hiperfunción es 0. En $x=0$ el complejo infinito. Pero en realidad podemos decir muchas más cosas sobre el origen. Ambas funciones tienen un polo simple con coeficiente $\frac{1}{2\pi i}$ . Así que cuando integramos y tomamos la diferencia, podemos transformar la integral a la integral de Cauchy (no voy a hacer esto aquí, pero es bastante sencillo).

Lo bueno de la teoría es que podemos definir la derivada de la forma más sencilla posible: simplemente escribiendo $$ F'=[F_+',F_-']. $$ La belleza de esto se puede mostrar escribiendo $$ J' = [(-\frac{1}{2 \pi i}\log(-z))',(-\frac{1}{2 \pi i}\log(-z))'] = [-\frac{1}{2\pi i z},-\frac{1}{2\pi i z}] = \delta. $$ Así que la función delta es la derivada real de la función escalonada de Heaviside.

Me detendré aquí. Hay mucho más en esta teoría y no es un tema fácil, pero es hermoso. Una introducción relativamente sencilla es el libro "Introduction to Hyperfunctions and Their Integral Transforms" de Urs Graf.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X