28 votos

Heisenberg del principio de incertidumbre de la media de la desviación?

El principio de incertidumbre de Heisenberg establece que

$$\sigma_x \sigma_p \ge \frac{\hbar}{2}$$

Sin embargo, esto es sólo para la desviación estándar. ¿Qué es la desigualdad si la desviación media, que se define como

$$\bar \sigma_x=\int_{-\infty}^{\infty} \lvert x-\bar x\rvert\,\rho(x) \ \mathrm{d}x = \int_{-\infty}^{\infty} \lvert x-\bar x\rvert\ \lvert\Psi(x)\rvert^2\ \mathrm{d}x$$

se utilizó como medida de la dispersión? Esta medida de dispersión generalmente se le da un valor menor que la desviación estándar.

Hay un número positivo $\lambda$ tal que

$$\bar \sigma_x \bar \sigma_p \ge \lambda$$

tiene en general?

15voto

sid Puntos 41

Podemos suponer WLOG que $\bar x=\bar p=0$$\hbar =1$. No suponemos que la onda-funciones están normalizadas.

Vamos $$ \sigma_x\equiv \frac{\int \mathrm dx\; |x|\;|\psi(x)|^2}{\int\mathrm dx\; |\psi(x)|^2} $$ y $$ \sigma_p\equiv \frac{\int \mathrm dp\; |p|\;|\tilde \psi(p)|^2}{\int\mathrm dx\; |\psi(x)|^2} $$

El uso de $$ \int\mathrm dp\ |p|\;\mathrm e^{ipx}=\frac{-2}{x^2} $$ podemos comprobar que la$^1$ $$ \sigma_x\sigma_p=\frac{1}{\pi}\frac{\int\mathrm dx\;\mathrm dy\;\mathrm dz\ |\psi(z)|^2\psi^*(x)\psi(y)\frac{-|z|}{(x-y)^2}}{\left[\int\mathrm dx\; |\psi(x)|^2\right)^2}\equiv \frac{1}{\pi} F[\psi] $$

En el caso de Gauss paquetes de onda es fácil comprobar que $F=1$, $\sigma_x\sigma_p=\frac{1}{\pi}$. Sabemos que Gaussiana de la onda-funciones tienen el mínimo posible propagación, por lo que podría conjeturar que $\lambda=1/\pi$. No he sido capaz de probar que $F[\psi]\ge 1$ todos los $\psi$, pero parece razonable esperar que $F$ es minimizado por Gauss funciones. El lector podría intentar probar esta afirmación mediante el uso de Euler-Langrange ecuaciones para $F[\psi]$ porque después de todo, $F$ es sólo funcional de $\psi$.


Prueba de la conjetura

He evaluado $F[\psi]$ para algunos random $\psi$: $$ \begin{aligned} F\left[\exp\left(-ax^2\right)\right]&=1\\ F\left[\Pi\left(\frac{x}{a}\right)\cos\left(\frac{\pi x}{a}\right)\right]&=\frac{\pi^2-4}{2\pi^2}(\pi\text{Si}(\pi)-2)\approx1.13532\\ F\left[\Pi\left(\frac{x}{a}\right)\cos^2\left(\frac{\pi x}{a}\right)\right]&=\frac{3\pi^2-16}{9\pi^2}(\pi\text{Si}(2\pi)+\log(2\pi)+\gamma-\text{Ci}(2\pi))\approx1.05604\\ F\left[\Lambda\left(\frac{x}{a}\right)\right]&=\frac{3\log2}{2}\approx1.03972\\ F\left[\frac{J_1(ax)}{x}\right]&=\frac{9\pi^2}{64}\approx1.38791\\ F\left[\frac{J_2(ax)}{x}\right]&=\frac{75\pi^2}{128}\approx5.78297 \end{aligned} $$

Como se ha señalado por knzhou, cualquier función que depende de un único parámetro $a$ $F$ que es independiente de ese parámetro. Si tomamos en lugar de funciones $\psi_{a,b}$ que dependen de más de una escala, usualmente obtenemos una $F$ que depende, al menos uno de los parámetros. En esos casos se puede tratar de minimizar $F$ con respecto a ese parámetro. Por ejemplo, si tomamos $$ \psi_{a,n}(x)=\Pi\left(\frac{x}{a}\right)\cos^n\left(\frac{\pi x}{a}\right) $$ a continuación, obtenemos $$ F\left[\psi\right]=1+\frac{\epsilon}{n}+\mathcal O\a la izquierda(n^{-2}\right)>1 $$ donde $\epsilon\approx 0.0835$. En este ejemplo nos encontramos con que $F[\psi_n]$ es minimizado por $n\to\infty$ donde obtenemos $F[\psi_{\infty}]=1$.

Como otro ejemplo, si tomamos $$ \psi_{a,n}(x)=\frac{J_{2n+1}(ax)}{x} $$ tenemos $$ F[\psi]=\frac{(4n+1)^2(4n+2)^2\pi^2}{64(2n+1)^3}\ge \frac{9\pi^2}{64} \approx1.38791 $$

Podríamos hacer lo mismo para otras familias de funciones con el fin de ser más confiado acerca de la conjetura.


Otros momentos

Si utilizamos $$ \sigma_x(\nu)=\int\mathrm dx\ |x|^\nu\; |\psi(x)|^2\qquad \nu\in\mathbb N $$ para medir la dispersión, nos encontramos con que, para Gauss funciones, $$ \sigma_x(\nu)\sigma_p(\nu)=\frac{1}{\pi}\Gamma\left(\frac{1+\nu}{2}\right)^2 $$

En este caso obtenemos $\sigma_x\sigma_p=1/\pi$$\nu=1$$\sigma_x\sigma_p=1/4$$\nu=2$, como se esperaba. Es interesante observar que $\sigma_x(\nu)\sigma_p(\nu)$ es minimizado por $\nu=2$, es decir, la costumbre HUR.


$^1$ podríamos necesidad de introducir una pequeña parte imaginaria para el denominador $x-y-i\epsilon$ al hacer la integral converge.

7voto

Volví a la derivación del principio de incertidumbre de Heisenberg y trató de modificar. No estoy seguro si lo he subido con la pena nada, pero te voy a ser el juez:

El original de la derivación

Deje $\hat{A} = \hat{x} - \bar{x}$$\hat{B} = \hat{p} - \bar{p}$. A continuación, el producto interior del estado $| \phi\rangle = \left(\hat{A} + i \lambda \hat{B}\right) |\psi\rangle$ con sí mismo debe ser positivo que conduce a:

$\langle\phi|\phi\rangle = \langle\psi|\left(\hat{A} - i \lambda \hat{B}\right)\left(\hat{A} + i \lambda \hat{B}\right) |\psi\rangle = \left(\Delta A\right)^2 + \lambda^2(\Delta B)^2 + \lambda i\left <\left[\hat{A}, \hat{B}\right] \right> \geq 0$

Como esto es cierto para cualquier lambda necesitamos que el discriminante sea positivo. Esto le da Heisenbergs relación:

$\left(\Delta A\right)^2 \left(\Delta B\right)^2 \geq \frac{1}{4}\left<i\left[\hat{A}, \hat{B}\right]\right>^2$

Para el a y el B se considera por encima del colector es fácilmente evaluados para dar el resultado estándar.

Mi intento de modificación de la misma

Trate de tomar $\hat{A}_2 = \sqrt{\hat{x} - \bar{x}}$ $\hat{B}_2 = \sqrt{\hat{p} - \bar{p}}$ en lugar de $\hat{A}$$\hat{B}$. Aquí la raíz cuadrada puede ser tomado para significar cualquier operador de que las plazas a $\hat{x} - \bar{x}$ y de manera similar para $\hat{p}$.

La derivación anterior fue completamente general, el único problema ahora es que el colector no es fácil de evaluar. El colector es ahora de la forma $[f(\hat{x}),f(\hat{p})]$. Podemos hacer una ampliación:

$f(f(\hat{x}) = \sum_{n=0}^\infty a_n \hat{x}^n$

En nuestro caso podemos tomar, por ejemplo, el binomio de expansión de la raíz (desde cualquier operador que el cuadrado de da $\hat{x} - \bar{x}$ es decir:

$\sqrt{\hat{x} - \bar{x}} = \sqrt{\bar{x}} \left( 1 + \frac{1}{2} \frac{\hat{x}}{\bar{x}} + \frac{1}{2} (\frac{1}{2}-1) (\frac{\hat{x}}{\bar{x}})^2 + ... \right) = \sum_{n=0}^\infty \bar{x}^{3/2-n} \frac{0.5!}{(0.5-n)!} \hat{x}^n$

donde el factorial se define como: $\frac{0.5!}{(0.5-n)!} = 0.5(0.5-1)...(0.5-n+1)$

Así se obtuvo $ a_n = \bar{x}^{3/2-n} \frac{0.5!}{(0.5-n)!}$

Ahora volvamos al colector. Tenemos:

$ [\hat{A}_2,\hat{B}_2] = \sum_{n,m} a_n a_m [\hat{x}^n, \hat{p}^m] = i \hbar \sum_{n,m} a_n a_m \sum_q^{m-1} \hat{p}^{m-1-q} \hat{x}^{n-1} \hat{p}^q$

Espero que me de la $[\hat{x}^n, \hat{p}^m]$ derecho pero estoy relativamente seguro de que la expresión final es de esta forma. Yo creo que no se puede evaluar esta serie analíticamente (o se puede?) pero una observación importante es que ya que esta es NO es un número sino un operador. La pregunta es, realmente, no resuelto por este aunque. Uno tendría que buscar el menor autovalor de este operador, que sería el límite inferior en el producto de las incertidumbres de la OP estaba preguntando acerca de. Pero aparte de la serie siendo desagradable probablemente se ejecuta en problemas con el acotamiento de la $\hat{p}$, $\hat{x}$ a los operadores. Tal vez alguien sabe más sobre esto.

-2voto

Fernando Briano Puntos 3704

Como en el enlace que te dan, la forma funcional depende de la distribución de probabilidad se utiliza, y estos difieren ampliamente, nada tan general como el de Heisenberg forma puede aparecer. La mecánica cuántica equivalente requiere la solución de la frontera en concreto problema.

En cualquier caso , el HUP es acerca de los deltas de los ríos, es decir, las incertidumbres, y no sólo desviaciones estándar definido para distribuciones estadísticas, que es claro en este papel.

Uno puede conseguir la HUP de las relaciones de conmutación de la mecánica cuántica de la teoría, lo que significa que uno tiene que definir el Hamiltoniano y vaya a la conmutadores.

Como su enlace, señala:

La desviación media es un importante descriptiva estadística que no se encuentran con frecuencia en estadística matemática. Este es, esencialmente, porque mientras que la media de la desviación tiene una intuitiva natural definición como la "desviación media respecto a la media," la introducción del valor absoluto hace cálculos analíticos utilizando esta estadística mucho más complicado que el de la desviación estándar.

Como la incertidumbre de Heisenberg es tratado como tal, es decir, la incertidumbre, y sobre todo como orden de magnitud, ¿por qué debe uno encontrar un matemático más complejo camino ? Como la lista de distribuciones estadísticas al final de su enlace muestra que existe una relación entre los términos estadísticos , depende de la probabilidad individual de la función. El general de la derivación de la HUP, hace independiente de la distribución estadística dada por la wavefunctions, de ahí su utilidad. Debido a la absoluta signos en la desviación media esto no puede ser así.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X