Se hizo todo a la derecha, pero se olvidó de función delta de la propiedad.
$$
\delta(x)f(x) = \delta(x)f(0) \, .
$$
Eso es correcto para cada función suave (es difícil decir lo $\theta(x)\delta(x)$ es, pero hay una manera de definirlo). Los físicos suelen explicar superficialmente.
Por lo tanto
$$
\delta(r'-r) \exp \left[-\frac{\gamma}{2}(r'-r)^2 \right] = \delta(r'-r).
$$
A ver donde esta propiedad viene desde permítanme recordarles definición de Dirac $\delta$-función.
Los físicos como el uso de Dirac de la definición:
- $\delta(x) = 0, \, |x| > 0$
- $\int\limits_{-\infty}^{+\infty}\delta(x)dx = 1$.
Lo cual es bastante extraño, ya que la integral no se preocupa de null conjuntos. No importa si usted tiene Riemann o la integral de Lebesgue, primera propiedad implica $\int_{-\infty}^{+\infty}\delta(x)dx = 0$. El físico también gusta escribir $\delta(0) = +\infty$, lo que es aún más extraño. Hay dos vías para hacer frente a estas contradicciones. Los matemáticos dicen que $\delta$-la función no es función. Es un funcional o, para ser más precisos de la distribución (ver más abajo). Los físicos hovewer imaginarlo como una función suave, de tal manera que $\delta(x) = 0, \, |x| > \varepsilon$ donde $\varepsilon$ es mucho menos que cualquier otro tamaño que tienen (por ejemplo, usted puede leer Feynman Premio nobel de conferencias donde se utiliza de forma explícita) y la propiedad 2 se mantiene.
A menudo (por ejemplo, al hacer la transformada de Fourier) es suficiente para pensar que
$$
\int\limits_{-\infty}^{\infty} \frac{dp}{2\pi}e^{ixp} = \delta(x).
$$
Pero tales integral simplemente no existe. Así que es una mala definición de $\delta$-función. Manera correcta de entender que la identidad es como un límite
$$
\lim\limits_{\epsilon \a +0} \left[\int\limits_0^{\infty} \frac{dp}{2\pi}e^{ixp-\epsilon p} + \int\limits_{-\infty}^{0} \frac{dp}{2\pi}e^{ixp+\epsilon p}\right] = \frac{1}{2\pi}\lim\limits_{\epsilon \a +0} \left[\frac{1}{\epsilon-ix}+\frac{1}{\epsilon+ix}\right] = \lim\limits_{\epsilon \a +0} \frac{1}{\pi}\frac{\epsilon}{\epsilon^2+x^2} .
$$
Vamos a llamar a la última función de $\delta_\epsilon(x)$. Se puede mostrar fácilmente que $\int\delta_\epsilon(x) = 1\,$ $\forall \epsilon > 0$ y $\delta(x) \to 0$, $\epsilon \to 0$ $\forall |x| > 0$. A partir de estos dos y $\delta_\epsilon(x) > 0$ se puede demostrar que
$$
\lim\limits_{\epsilon \a +0}\int\limits_{-\infty}^{\infty}\delta_\epsilon(x)f(x) = f(0).
$$
Que es general $\delta$-la función de la propiedad. Así que podemos decir que el $\lim\limits_{\epsilon \to +0} \delta_\epsilon = \delta$, pero recordemos que ese límite no existe. En realidad, trabajamos con $\delta_\epsilon$ y, a continuación, tomar el límite de $\epsilon \to 0$.
Ahora podemos estudiar $f(x)\delta(x)$. Imagine que usted tiene algunos $\delta$-secuencia, como un escrito aquí (usted puede encontrar a otros aquí)
$$
\delta_\epsilon(x) = \frac{1}{\pi}\frac{\epsilon}{\epsilon^2+x^2}
$$
y usted está interesado en $\lim\limits_{\epsilon \to 0} f(x)\delta_\epsilon(x)$. Usted puede utilizar la serie de taylor $f(x) = f(0) + o(x), \,x \to 0$ y $o(x)\delta_\epsilon(x) \to 0, \epsilon \to 0$ $\,\forall x$. Yo creo que usted pueda mostrar a ti mismo usando una expresión explícita para $\delta_\epsilon(x)$.
Los matemáticos dicen que $\delta$ es una distribución Que significa que actúa en función de $\psi(x)$ y te devolverá un número. Para $\delta$ que numero es $\psi(0)$. Escribe $\langle\delta(x)|\psi(x)\rangle = \psi(0)$.
Si usted interpretar esa acción como un producto escalar de funciones (integrante) $\langle\psi(x) | \phi(x)\rangle = \int \psi^*(x)\phi(x) dx$ a continuación, se ve como una función de $\delta(x)$.
Desde ese punto de biew es incluso más fácil de ver que desee identidad se mantiene. $\langle f(x)\delta(x)|\psi(x)\rangle = \langle\delta(x)|f(x)\psi(x)\rangle = f(0)\psi(0) = \langle f(0)\delta(x)|\psi(x)\rangle$ (de acuerdo a los matemáticos no es una prueba, es la definición).
P. S. yo creo que la definición común de coherente estados correcciones de fase en forma diferente ($\hbar = 1$)
$$
\langle r | \psi(r_i,p_i) \rangle = \left( \frac{ 2 \gamma}{\pi} \right)^{\frac{1}{4}} \exp \left[ -\gamma (r-r_i)^2 + i p_i(r-r_i) + \frac{i}{2}p_ir_i \right] .
$$
Entonces
$$
| \psi(r_i,p_i) \rangle = \exp\left[\frac{\gamma}{2}(r_i^2+p_i^2)\right] \sum\limits_{n=0}^{\infty}\sqrt{\frac{\gamma^n}{n!}}(r_i+ip_i)^n |n\rangle .
$$
P. S. S. @WetSavannaAnimalakaRodVance gracias por tu comentario. Sé que $\theta \notin S$, pero ya estoy curioso sobre el valor de $\theta(x)\delta(x)$ $\mathrm{supp}\, \delta = {0}$ que sólo discontinuidad en $x = 0$ de lo que yo debería estar preocupado. También puede aplicar los siguientes argumentos a $\theta(x)\theta(1-|x|) = \mathrm{rect}(x-\frac{1}{2})-\mathrm{rect}(x+\frac{1}{2})$ y obtener el mismo resultado.
He leído http://math.stackexchange.com/q/1832691/10549 y le gustó la respuesta. Creo $x = 0$ sería un punto de Lebesgue de $\theta$ si dejas $\theta(0) = \frac{1}{2}$ desde
$$
\lim\limits_{\varepsilon \a +0}\frac{1}{2\varepsilon} \int\limits_{-\varepsilon}^{\varepsilon} \theta(x) dx = \frac{1}{2}.
$$
Voy a argumentar ahora que $\theta(x)\delta(x) = \frac{1}{2}\delta(x)$ $S'$ con cualquier sensato definición que se puede venir para arriba con.
- La diferenciación de las distribuciones está bien definida la operación. Ahora me imagino que también obedece a reglas comunes como $(f^2)'=2ff'$, $\theta\cdot\delta = \frac{1}{2}(\theta^2)'$ y creo que usted estará de acuerdo en que $\theta^2 = \theta$$S'$. Por lo tanto, $\forall\, \varphi \in S$
$$
\langle \theta\cdot\delta \varphi\rangle = \frac{1}{2}\langle (\theta^2)', \varphi\rangle = -\frac{1}{2}\langle \theta^2, \varphi'\rangle = -\frac{1}{2}\int\limits_0^{\infty}\varphi'(x)dx = \frac{1}{2}\varphi(0).
$$
- Otra manera de entenderlo es aproximado $\theta$ con funciones continuas.
$$
\theta(x) = \sum\limits_{m=0}^{\infty} \psi_m(x) = \frac{1}{2} + 2\sum\limits_{m=1}^{\infty}
\frac{\sin{(2m-1)x}}{\pi(2m-1)}, \qquad
x \(- \pi, \pi).
$$
Y definir
$$
\langle \theta\cdot\delta \varphi\rangle = \sum\limits_{m=0}^{\infty} \langle \delta \psi_m\cdot\varphi\rangle = \varphi(0)\sum\limits_{m=0}^{\infty} \psi_m(0) = \frac{1}{2}\varphi(0).
$$
Además, existe un teorema en el análisis que dice que si la función$f \in L_1(-\pi,\pi)$$f'(x_0 \pm 0)$, entonces su serie de Fourier suma converge a $\frac{1}{2}(f(x_0+0)+f_0(x_0-0))$.