24 votos

En los modelos de 't Hooft beable, ¿las mediciones mantienen los estados clásicos?

Se trata de una pregunta sobre los modelos beable de 't Hooft (véase aquí: ¿Discreción y determinismo en las supercuerdas? ) para la mecánica cuántica, y el objetivo es comprender hasta qué punto éstas consiguen reproducir la mecánica cuántica. Para ser precisos, diré que un modelo "'t Hooft beable" consiste en lo siguiente:

  • Autómata celular clásico muy grande, cuyos estados forman una base de un espacio de Hilbert.
  • Un estado que se imagina como uno de estos elementos básicos.
  • Un operador unitario de evolución en el tiempo cuántico que, para una serie de tiempos discretos, reproduce las reglas de evolución de los autómatas celulares.

El principal argumento de 't Hooft (que es interesante y cierto) es que es posible reexpresar muchos sistemas cuánticos de esta forma. La cuestión es si esta reescritura permite automáticamente considerar el sistema cuántico como clásico.

La teoría probabilística clásica de un autómata celular consiste necesariamente en datos que son una distribución de probabilidad $\rho$ sobre los estados de CA que evolucionan según dos reglas distintas:

  • Evolución temporal: $\rho'(B') = \rho(B)$ donde prime significa "siguiente paso temporal" y B es el estado del autómata. Esto se puede extender sin dificultad a un proceso de difusión probabilístico.
  • Reducción probabilística: si un observador dispone de un poco de información a través de un experimento, los estados de la AC se reducen a los compatibles con la observación.

Debería definir la reducción probabilística-es la regla de Bayes: dada una observación que vemos que produce un resultado $x$ pero no sabemos el valor exacto $x$ conocemos a la probabilidad $p(x)$ que el resultado es $x$ la reducción probabilística es

$$ \rho'(B) = C \rho(B) p(x(B)), $$

donde $x(B)$ es el valor de $x$ que se produciría si el estado del autómata es $B$ y $C$ es una constante de normalización. Este proceso es la razón por la que la teoría clásica de la probabilidad se distingue por encima de cualquier otro sistema: siempre se puede interpretar el proceso de reducción de Bayes como una reducción de la ignorancia de las variables ocultas.

Los bits de información que se ponen a disposición de un observador macroscópico interno a la AC a través del experimento no son valores microscópicos de la AC, sino funciones terriblemente no locales y terriblemente complejas de trozos gigantescos de la AC. Bajo ciertas circunstancias, la reducción probabilística más el proceso de medición podrían concebiblemente imitar aproximadamente la mecánica cuántica, no veo una prueba de lo contrario. Pero el diablo está en los detalles.

En los modelos 't Hooft, también tiene dos procesos:

  • Evolución temporal: $\psi \rightarrow U \psi$ .
  • Reducción de la medida: medida de un observable correspondiente a algún subsistema en tiempos intermedios, que, como en la mecánica cuántica estándar, reduce la función de onda mediante una proyección.

El primer proceso, la evolución temporal, tiene garantizado que no te superpones en las variables globales, ya que esto no es más que una permutación en la formulación de 't Hooft, de eso se trata. Pero no he visto ningún argumento convincente de que el segundo proceso, aprender un poco de información a través de la medición cuántica, corresponda a aprender algo sobre el estado clásico y reducir el estado probabilístico CA según la regla de Bayes.

Dado que los modelos de 't Hooft son completamente precisos y calculables (ésta es la gran virtud de su formulación), cabe preguntarse con precisión: ¿la reducción de la función de onda en respuesta al aprendizaje de un poco de información sobre el estado de la AC a través de una observación interna es siempre matemáticamente equivalente a una reducción de Bayes de la función de onda global?

Señalaré que si la respuesta es no, los modelos 't Hooft no están haciendo autómatas clásicos, están haciendo mecánica cuántica en una base diferente. Si la respuesta es sí, entonces los modelos de 't Hooft podrían reescribirse completamente como actividades propias de la distribución de probabilidad $\rho$ y no en estados de superposición cuántica.

19voto

Brian Clapper Puntos 171

Creo que la respuesta correcta es que tales modelos son tanto mecánicos cuánticos como clásicos, aunque esto podría considerarse una cuestión de semántica.

Es un hecho que, tan pronto como se encuentra una base en su sistema cuántico donde la evolución es sólo una permutación, las "probabilidades cuánticas" para los estados en esta base, (tal como se define por la regla de Born) se vuelven idénticas a las probabilidades clásicas (de hecho, obedeciendo a la lógica de Bayes). Por tanto, será difícil evitar interpretarlas como tales: el "universo" se encuentra en uno de estos estados, no sabemos cuál, pero conocemos las probabilidades.

La pregunta está bien planteada: ¿seguirá teniendo sentido considerar los estados superpuestos sobre esta base, y preguntarse si pueden medirse, y cómo evolucionan?

Mi respuesta depende de si el sistema cuántico en cuestión está lo suficientemente estructurado como para permitir considerar "características macroscópicas" en el "límite clásico", y si este límite clásico permite interacciones no triviales, causantes de fenómenos tan complejos como la "decoherencia".

A continuación, tomemos un mundo descrito por este modelo y consideremos los objetos macroscópicos en este mundo. La cuestión es entonces si dentro de estos objetos macroscópicos (planetas, personas, indicadores en aparatos de medida,...), nuestra CA se comporta de forma diferente a como lo hace en el vacío. Esto puede ser razonable suponerlo, y yo lo supongo así en el mundo real, pero no es nada obvio. Si es así, entonces los sucesos macroscópicos son descritos únicamente por la AC.

Esta sería entonces mi idea de una teoría de variables ocultas. Los rasgos macroscópicos se definen como rasgos que pueden reconocerse observando los modos colectivos del AC. Son clásicos. Nótese que, si se describen mediante funciones de onda, estas funciones de onda se habrán colapsado automáticamente. Los físicos de este mundo pueden haber sido incapaces de identificar los estados de la AC, pero han alcanzado la escala física en la que los estados de la AC ya no se comportan colectivamente sino que, en su lugar, importan los bits individuales de información. Estos físicos habrán sido capaces de derivar la ecuación de Schroedinger para los estados que necesitan para entender su mundo, pero trabajan en la base equivocada, de modo que aterrizan en acaloradas discusiones sobre cómo interpretar estos estados...

Nota añadida: Creía que mi respuesta era clara, pero permítanme resumirla respondiendo a los 2 últimos párrafos de la pregunta:

SÍ, mis modelos son siempre equivalentes a una "reducción de Bayes de la función de onda global"; si puedes calcular cómo la distribución de probabilidad $\rho$ evoluciona, estás acabado.

Pero, por desgracia, para ello se necesitaría un ordenador clásico de proporciones planckianas, porque el AC es un ordenador universal. Así que si quieres saber cómo se comportan las distribuciones a escalas de espacio y tiempo mucho mayores que las escalas de Planck, lo único que puedes hacer es el mapeo en un espacio cuántico de Hilbert. QM es un sustituto, un truco. Pero funciona, y a escalas macroscópicas, es todo lo que tienes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X