14 votos

Es esta una función delta de dirac?

Yo tenía esto en un examen de ayer, y no estoy del todo convencido de que la afirmación es verdadera. Se nos pidió que nos muestran que la función $\delta (x) = \int_{-∞}^{∞} \frac{1}{t(t-x)} dt$ es una delta de dirac función mediante la demostración de que $I=\int_{-∞}^{∞} f(x)\delta(x) dx$ mantiene todas las propiedades necesarias.

Hay tres cosas que creo que debería ser demostrado: 1) La función debe ser infinito en un solo punto. (esta función es infinito en $t=x$) 2) debe ser cero en todas las demás 3) debe satisfacer $\int_{-∞}^{∞} f(x)\delta(x) dx=f(0)$.

Me mostró 2 es verdadera por lo que demuestra que el Valor Principal de Cauchy es cero para que la integral, lo que significa que es cero en todas partes que guardar un punto que evitar.... pero no veo cómo 3 tiene en general. Veo que para algunas funciones, como $f(x)=x$, pero, ¿qué acerca de la $f(x)=1$, por ejemplo. De todos modos, esta es una función delta o no.... si es así, ¿por qué?

9voto

Fabian Puntos 12538

La cuestión publicado no está bien definida (por múltiples razones). El hecho de que Dirac $\delta$ no es una función sino una distribución fue señalado antes. Lo es también (tal vez incluso más) relevante es que no hay una receta dada de cómo manejar la divergencia debido a la pol $t=0$$t=x$. De hecho, la cuestión se puede leer como: es $I$ definidos a través de $$I = \int_{-∞}^{∞} \frac{1}{(t+ i \epsilon_1) (t-x+ i \epsilon_2)} dt$$ donde $\epsilon_1,\epsilon_2 \to 0$ $\delta$- distribución. Resulta que la respuesta a esta pregunta depende del hecho de si $\epsilon_1$ (e $\epsilon_2$) se aproxima a 0 desde arriba o desde abajo. Que esto es importante es ejemplificado por Sokhotski de la fórmula.

Para obtener más información sobre el problema, podemos aplicar la fracción parcial de expansión $$\frac{1}{(t+ i \epsilon_1) (t-x+ i \epsilon_2)} = \frac{1}{x+ i(\epsilon_1-\epsilon_2) } \left(\frac{1}{t-x+i\epsilon_2}- \frac{1}{t+ i \epsilon_1} \right).$$

Si hacemos la integral sobre la $t$ (que ahora es posible, como hemos regularizado la integral por las pequeñas piezas imaginarias), obtenemos $$\int_{-\infty}^\infty \left(\frac{1}{t-x+i\epsilon_2}- \frac{1}{t+ i \epsilon_1} \right)dt = \begin{cases} 2\pi i & \epsilon_1 >0 , \epsilon_2 <0,\\ -2\pi i & \epsilon_1 <0 , \epsilon_2 >0,\\ 0 & \text{else}. \end{casos}$$ Podemos ver que si $\epsilon_1$ tiene el mismo signo que $\epsilon_2$, $I$ no puede ser el $\delta$-distribución, ya que se desvanece de forma idéntica.

Para $\epsilon_1 \epsilon_2 <0$, tenemos $$I = \frac{2\pi i \mathop{\rm sgn}(\epsilon_1) }{x+ i(\epsilon_1-\epsilon_2) } = 2\pi i \mathop{\rm sgn}(\epsilon_1) \left( \mathcal{P} \frac{1}{x} + i \pi \mathop{\rm sgn}(\epsilon_2-\epsilon_1) \delta(x) \right)$$ a través de Sokhotki de la fórmula.

Vemos que la distribución definida por $I$ depende muy sensiblemente en los signos y la magnitud de $\epsilon_1$$\epsilon_2$. Y en el no de los muchos límites diferentes en realidad es un simple $\delta$-distribución!

4voto

Drealmer Puntos 2284

Este es un hermoso ejemplo! Ser capaz de demostrar algo, es mejor ser más cautelosos acerca de lo que la "función" dado por la integral "es", ya que, como se señaló en los comentarios, no es una función en un clásico (=finales del siglo 19 post-Cauchy-Weierstrass) sentido, aunque es de curso muy productivo para pensar en ello como una generalización de (=post-L. Schwartz) de la función. Hay opciones. Como en el primer comentario por el OP, podríamos tomar a $\delta_\epsilon(x)=\int_{-\infty}^\infty {dt\over (t+i\epsilon)(t+i\epsilon +x)}$, y decir que la integral con $\epsilon=0$ es _some_kind_of_ límite de $\epsilon\rightarrow 0^+$. En particular, es un débil límite, lo que significa que sólo requerimos que los límites de $\lim_{\epsilon\rightarrow 0^+}\int_{-\infty}^\infty f(x)\,\delta_{\epsilon}(x)\,dx\;$ existen para niza-suficiente funciones de $f$.

De hecho, para $f(0)=0\;$, este límite existe, ciertamente, y es $0$. Suponiendo que el límite existe, en general, esto demuestra que el límite debe ser un escalar varios de $\delta$.

Para determinar el escalar, y/o para ver que el límite existe para todos Schwartz funciones (por ejemplo), el truco es tomar una específica, convenientes $f_o$$f_o(0)=1$, y la primera nota de que para el general $f$ tenemos $\delta_\epsilon(f)=\delta_\epsilon(f-f(0)\cdot f_o)+f(0)\cdot \delta_\epsilon(f_o)\;$. Por lo tanto, es suficiente para evaluar $\delta_\epsilon(f_o)$ explícitamente. Tomando $f_o(x)=e^{-x^2}$ logra aquí...

2voto

Macarse Puntos 128

Esto es un poco áspero y listo, pero esperemos que podría ser arreglada. En primer lugar, como @señala pablo, debemos estar de acuerdo en qué entendemos por una distribución. Voy a ser un poco menos generosa y decir que es un objeto que actúa sobre las funciones de prueba a dar un número. Esta acción toma la forma $$<\Delta,u> = \int_{-\infty}^{+\infty} \Delta(x)u(x) \,dx,$$ donde $\Delta$ es la distribución y el $u$ es una función de prueba, es decir, una función suave ($C^\infty$) que se desvanece fuera de algunos compacto. (Por lo tanto, hay un número de $K>0$ tal que $u$ y todos sus derivados son igual a cero para $|x|>K$.) También necesitamos estar de acuerdo en que si podemos definir las funciones de $\Delta_\epsilon, \epsilon>0$ con la propiedad de que $$\lim_{\epsilon\to 0}<\Delta_\epsilon,u> \quad \hbox{exists for all test functions }\,u,$$ entonces decimos que la $\Delta=\lim_{\epsilon\to 0}\Delta_\epsilon$ es una distribución con $$<\Delta,u>=\lim_{\epsilon\to 0}<\Delta_\epsilon,u>.$$ (Estas son las definiciones estándar.)

Así que tomando su principal argumento de valor, definir, para $\epsilon>0$, $$\delta_\epsilon(x) = \int_{-\infty}^{x-\epsilon}\frac{dt}{t(t-x)}+\int_{x+\epsilon}^{+\infty}\frac{dt}{t(t-x)}.$$ podemos calcular que $$\delta_\epsilon(x) = \frac{1}{x}\log\left|\frac{x+\epsilon}{x-\epsilon}\right|.$$ [Oops. This doesn't deal correctly with $x=0$, por lo que el resto de esta respuesta es bastante inútil.]

(Este - $\delta_\epsilon$ - es localmente integrable en $\mathbb{R}$, que es la condición necesaria de la 1-parámetro ($\epsilon$) de la familia de funciones de $\Delta_\epsilon$ por encima. Es decir, $\Delta_\epsilon$ no está obligado a ser un clásico de la función, lo cual es útil porque $\delta_\epsilon$ golpes en $x=\epsilon$. Sin embargo, el golpe es muy suave.)

Así que para el programa anterior para trabajar, tenemos que comprobar que (i) $<\delta_\epsilon,u>$ existe para todas las funciones de prueba de $u$; (ii) el límite de $\lim_{\epsilon\to 0}<\delta_\epsilon,u>$ existe. Si además podemos demostrar que este límite se evalúa a $cu(0)$ para algunas constantes $c$ y todas las funciones de prueba de $u$, entonces podemos legítimamente decir que $\delta=\lim_{\epsilon\to 0}\delta_\epsilon$ es de hecho igual a $c\delta_{Dirac}=c\times$ la delta de Dirac.

Así que la selección de una función de prueba $u$. Desde $u$ es suave todo el mundo, podemos aplicar Taylor teorema y escribir $$u(x)=u(0)+u'(0)x+\frac{u''(\xi_x)}{2}x^2,$$ donde $\xi_x$ depende continuamente en $x$. Entonces $$<\delta_\epsilon,u> = I_1 + I_2 + I_3,$$ donde \begin{eqnarray*}I_1&=&u(0)\int_{-\infty}^{\infty}\delta_\epsilon(x)dx,\\ I_2&=&u'(0)\int_{-\infty}^{\infty}x\delta_\epsilon(x)dx,\\ I_3&=&\int_{-\infty}^{\infty}\frac{u''(\xi_x)}{2}x^2\delta_\epsilon(x)dx.\\ \end{eqnarray*}

Observe que $\delta_\epsilon$ es aún, por lo $I_2=0$ $I_1$ $I_3$ puede ser escrito como integrales sobre el positivo de la mitad de la línea. Ahora recuerdo que $u$ y sus derivados se desvanecen para todos los $|x|>K$. Deje $M$ ser el máximo de la derivada segunda de $u$$[-K,K]$. Entonces $$|I_3|\leq M \int_0^K x^2\delta_\epsilon(x)dx =M\int_0^K x\log\left|\frac{x+\epsilon}{x-\epsilon}\right|dx.$$ Podemos evaluar esta manera explícita (poco de trabajo...) y demostrar que (i) existe para $\epsilon>0$ y (ii) se desvanece en el límite de $\epsilon\to 0$.

Sigue a lidiar con la integral de la $I_1$. Tenemos \begin{eqnarray*} \int_0^\infty\frac{1}{x}\log\left|\frac{x+\epsilon}{x-\epsilon}\right| &=& \int_0^\epsilon\frac{1}{x}\log\left(\frac{\epsilon+x}{\epsilon-x}\right) + \int_\epsilon^\infty \frac{1}{x}\log\left(\frac{x+\epsilon}{x-\epsilon}\right)\\ &=& 2\int_0^1\frac{1}{t}\log\left(\frac{1+t}{1-t}\right)dt,\end{eqnarray*} mediante el uso de $x=\epsilon t$ en la primera integral y $x=\epsilon/t$ en el segundo. Esta integral es finito, con valor de $c\simeq 4.93$ (probablemente algo mucho más elegante, pero esto es lo que Wolfram Alpha da).

Así que, para cualquier función de prueba de $u$, parece que $$\lim_{\epsilon\to0} <\delta_\epsilon,u> = c u(0),$$ y entonces su integral es $c\delta_{Dirac}$.

1voto

Fabian Puntos 12538

La lectura de la pregunta de nuevo, me di cuenta de que usted menciona el valor del capital. Por supuesto, hay otra interpretación de su distribución $$I = \int_{-\infty}^\infty \mathcal{P} \frac{1}{t(t-x)} dt$$ lo que implica un principio de valor integral; pero la afirmación de mi post anterior sigue que la integral como se indica en la pregunta no es bien definido de tal forma que uno se ve forzado a encontrar una interpretación. ${{{}}}$ Para demostrar que $I$ es, de hecho, proporcional a la $\delta$-distribución, se introduce $$\begin{align} I_\epsilon&= \int_{-\infty}^\infty \mathcal{P} \frac{1}{t(t-x + i\epsilon)}dt =\int_{0}^\infty \left[\frac{1}{t(t-x + i\epsilon)} + \frac{1}{t(t+x - i\epsilon)}\right]dt\\ &= \int_0^\infty\frac{2}{t^2 - (x-i \epsilon)^2}\\ &= \frac{\pi}{i(x-i\epsilon)} \end{align}$$ con $I = \lim_{\epsilon\to 0} \mathop{\rm Re}I_\epsilon$.

Tenemos $$\mathop{\rm Re}I_e= \frac{\pi \epsilon}{x^2+\epsilon^2} $$ que converge hacia $$ I = \pi^2 \delta(x).$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X