1 votos

El principio de incertidumbre de Heisenberg

En el Principio de incertidumbre de Heisenberg ,

$$\Delta x \cdot \Delta p \geq \frac{h}{4\pi}$$

Los valores de $\Delta x$ y $\Delta p$ son las desviaciones estándar que obtenemos de la función de distribución de probabilidad de la partícula y he oído que no tiene nada que ver con el instrumento de medición.

En realidad, al medir, la función de distribución de probabilidad de una partícula también cambia, ¿significa esto que el instrumento de medición tiene algún efecto?

4voto

Fernando Briano Puntos 3704

En realidad, al medir, la función de distribución de probabilidad de una partícula también cambia, ¿significa esto que el instrumento de medición tiene algún efecto?

El proceso de medición puede cambiar las condiciones de contorno de las soluciones de las ecuaciones mecánicas cuánticas del sistema que se está midiendo, por lo que el cuadrado complejo conjugado de la función de onda (la probabilidad) puede cambiar. Las buenas mediciones se realizan con una perturbación mínima del proceso estudiado por el método de medición.

1voto

Harsh Vardhan Puntos 31

Sí, en efecto, cualquier medida en la que se aprenda algo perturbará el estado. Esto también se conoce como "no hay información sin perturbación". Recientemente ha habido una gran actividad para tratar de precisar esto cuantitativamente.

Como has dicho, la relación de Heisenberg que escribes no se refiere a esto, pero el efecto sigue existiendo sin duda. Aquí hay una serie de preguntas que podrías hacer (vamos a ceñirnos a la posición y al momento):

  • Dado un estado cuántico (es decir, un procedimiento de preparación, es decir, una serie de pasos que se realizan en un laboratorio), ¿cuáles son los límites fundamentales de la varianza de la posición y el momento si los mido (por separado)?
  • Dado un estado cuántico, ¿qué ocurre si mido la posición del estado y luego el momento del estado y comparo la distribución del momento con la distribución que obtengo cuando sólo mido el estado?
  • Dado un estado cuántico, ¿qué ocurre si mido la posición sólo muy groseramente y luego mido el momento? ¿Cambiará algo con respecto a la medición anterior?
  • ¿Cuál es la mejor manera de medir conjuntamente la posición y el impulso? Es decir, qué medición puedo hacer que arroje dos valores cada vez que mido, uno para la posición y otro para el momento. Lo de "mejor" significa que las distribuciones son lo más parecidas a las distribuciones en las que sólo mido la posición o sólo el momento.

El primero es, según tengo entendido, más o menos lo que describe el principio de incertidumbre de Heisenberg. El segundo y el tercer escenario describen un análisis cualitativo y cuantitativo de cuánto "perturba" realmente una medición un estado. El cuarto se refiere a realizar la medición al mismo tiempo (algo que también se oye a menudo en relación con el HUP).

Según tengo entendido (pero no soy en absoluto un experto), la gente está entendiendo mucho mejor los escenarios dos a cuatro de diverso sabor. Obsérvese, por ejemplo, que siempre hay que comparar distribuciones de probabilidad, para lo cual hay muchas formas de hacerlo.

Permítanme terminar dando un enlace a un documento que trata de distinguir una serie de relaciones diferentes (operativamente). Puede que no sea el mejor para empezar, pero parece razonable y, si te interesa, puedes sacar mucho de ahí, ya que es un artículo bastante reciente: http://arxiv.org/abs/1402.6711

0voto

John Puntos 76

En efecto, se trata de desviaciones estándar de una distribución de probabilidad. La distribución de probabilidad es la de obtener un valor particular mientras el sistema está en el estado anterior a la medición. Así que nos imaginamos midiendo un estado - se colapsa a algún valor, y luego de alguna manera restablecer el tiempo antes de la medición y la medición de nuevo. Si repetimos este proceso, rebobinando el reloj y midiendo, esto es lo que significa la probabilidad. De forma equivalente, y quizás más precisa, se podría pensar en preparar un montón de sistemas cuánticos idénticos, y la distribución sería de los valores que se obtendrían midiendo todos ellos. Así que ESTO es a lo que se aplican las desviaciones estándar: a estas distribuciones de probabilidad. Así que si se mide x con total certeza, entonces la desviación estándar para la distribución del momento se vuelve infinita. No tiene nada que ver con la precisión de la medición o algo así.

Además, la medición tiene un efecto: hace que el sistema seleccione al azar un valor de la distribución de probabilidad anterior y hace que elija ese valor exacto.

Espero que esto haya servido de ayuda.

0voto

Floris Puntos 54054

El principio de incertidumbre de Heisenberg establece un límite inferior en la incertidumbre (de ahí el $\lt$ signo). De ello se deduce que si tiene un error adicional (debido a su instrumento de medición) sólo puede aumentar la incertidumbre sobre este límite mecánico cuántico.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X