Parece que hay un nuevo teorema que cambia las reglas del juego en el debate interpretativo sobre la QM:
http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392
¿Esto sólo deja a Bohm, Everett y GRW como posibles candidatos?
Parece que hay un nuevo teorema que cambia las reglas del juego en el debate interpretativo sobre la QM:
http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392
¿Esto sólo deja a Bohm, Everett y GRW como posibles candidatos?
Creo que este teorema, aunque es simple, es algo útil, porque descarta cierta clase de interpretaciones de la mecánica cuántica, aunque ninguna de ellas es la estándar que se ve en los libros. Para la gente que cree en la interpretación de Copenhague (o de muchos mundos/muchas mentes/CCC o incluso Bohm), la función de onda es el estado físico del sistema, y este resultado está demostrando algo vacío, a saber, que el parámetro $\lambda$ que describe el verdadero estado secreto del sistema, contiene al menos la función de onda. ¡Pero es la función de onda! Así que este teorema no tiene nada que decir a esas personas, y ahí se acaba la historia. La primera respuesta que recibiste expresaba este punto de vista.
En la medida en que me siento cómodo con la interpretación estándar, también tengo la misma reacción ante el teorema: no hay nada nuevo aquí. Pero las interpretaciones a las que se refiere el teorema no son realmente interpretaciones, sino intentos de nuevas teorías, y para entenderlas hay que ser consciente de la forma exacta en que la mecánica cuántica entra en conflicto con la intuición. Es difícil encontrar esto en la literatura clásica, porque esta literatura se escribió antes de que la gente se sintiera cómoda con la noción de computación.
Creo en las ideas de abajo alrededor del 40% de las veces. La mayor parte del tiempo creo en la interpretación de los muchos mundos. No veo ningún sentido en distinguir entre opciones filosóficas que son positivistamente equivalentes, o equivalentes modulo mumbo-jumbo filosófico, así que considero que muchos-mundos es equivalente (modulo mumbo-jumbo) a Copenhague, a la conciencia causa colapso, a la decoherencia, y a muchas mentes, y estoy igualmente contento de usar cualquiera de estos lenguajes para describir la mecánica cuántica estándar (aunque muchos-mundos es más intuitivo). Estos métodos producen el mismo algoritmo para simular un trozo del universo.
Bohm es diferente, porque hay datos extra en la simulación, las posiciones de las partículas (o los valores del campo escalar) que actúa como un oráculo de valor real que determina el resultado de los experimentos, y esto significa que la aleatoriedad proviene de una fuente diferente, así que no creo que sea filosofía ociosa distinguir Bohm de los demás.
Pero ninguna de estas interpretaciones es filosóficamente satisfactoria desde un punto de vista puramente computacional. Todavía no existe ninguna teoría que sea satisfactoria desde el punto de vista computacional, y tal vez tal teoría sea imposible. Pero estaría bien encontrar una teoría alternativa, o bien demostrar que esto es imposible con buenos supuestos. Para encontrar los supuestos, existen criterios parciales que no suelen enunciarse explícitamente, que los partidarios que buscan a tientas una teoría más satisfactoria suelen utilizar. Los recopilaré a continuación, y al final explicaré qué clase de teorías descarta el nuevo resultado.
El problema básico que la gente tiene con la mecánica cuántica ya lo señaló Einstein, y es el gato de Schrodinger. La función de onda para N partículas tiene aproximadamente el mismo tamaño que una distribución de probabilidad sobre las N partículas, y estos objetos matemáticos de dimensiones tan gigantescas suelen aparecer sólo cuando nos referimos a cantidades que miden nuestra información sobre un sistema grande, no para cantidades que representan el estado de un sistema. En mecánica clásica, el número de variables de estado crece linealmente con el número de partículas, pero el número de variables necesarias para describir una distribución de probabilidad de la posición de las partículas crece exponencialmente. El crecimiento exponencial no es paradójico en probabilidad, porque se puede imaginar que hay una posición real debajo de la distribución, y hacer Monte-Carlo para encontrar cantidades medibles sin resolver la distribución de probabilidad completa, que podría ser demasiado grande para describirla.
El estado cuántico determina el estado cuántico en el futuro de una manera puramente lineal, por lo que está evolucionando de una manera que sugiere que es una medida de nuestra ignorancia de algunas variables, como una proyección de una distribución de probabilidad de muy alta dimensión, no de una manera que sugiera que es una verdadera medida de la física de los objetos. Pero en mecánica cuántica, la función de onda es una entidad física, es una medida de la física. Una función de onda es la mejor especificación posible del estado físico de un sistema aislado.
Aparte del estado básico de un sistema bosónico, no hay ninguna forma productiva de reducir el cálculo en mecánica cuántica utilizando Monte-Carlo. Esto ya es casi un teorema, gracias al algoritmo de Shor. Suponiendo sólo que la factorización de enteros en la naturaleza requiera una búsqueda (y el algoritmo de Shor por sí mismo no proporciona ningún método clásico de factorización que sea mejor que una búsqueda a ciegas). Incluso si hubiera una forma extremadamente inteligente de evitar una búsqueda ciega en la factorización, la naturaleza tendría que averiguar este método mientras funciona un ordenador cuántico, sin ninguna pista procedente del algoritmo cuántico, por lo que el método eficiente tendría que estar estrechamente relacionado con el algoritmo de Shor, y es poco probable que exista tal algoritmo, incluso si existe un buen algoritmo de factorización no relacionado muy complicado.
Así que la mecánica cuántica no es como la probabilidad, las diferentes ramas probabilísticas son capaces de transmitir la información suficiente entre las ramas para realizar tareas computacionales no triviales con un aumento exponencial de la velocidad. Pero la mecánica cuántica no es como un universo NP: no tiene una instrucción fork() con una parada en cualquier bifurcación que conduzca a un resultado global. Así que ocupa un extraño lugar intermedio entre la física de un verdadero universo paralelo y la computación probabilística.
Aunque es posible que así sea el universo en realidad, es importante buscar teóricamente alternativas, sólo para saber lo grande que es el espacio de posibilidades. Una alternativa interesante tendría que obedecer al menos a una de las dos restricciones siguientes:
La alternativa bohmiana, computacionalmente hablando, es aún mayor que la mecánica cuántica, incluye datos extra, así que desde una perspectiva computacional no es mejor que la QM. Así que la ignoraré. También ignoraré la primera alternativa, porque también es mayor que la MC. Sólo me centraré en las teorías verdaderamente clásicas, por debajo de todo.
La desigualdad de Bell acabó definitivamente con las teorías de variables ocultas locales. Para ver esto, voy a recapitular rápidamente el teorema de Bell de la forma más intuitiva que conozco: si tienes tres estudiantes A,B,C en una fila haciendo un examen, y hacen trampas, de forma que miran a su vecino y copian las respuestas, si sabes que el estudiante del medio, B, está correlacionado al 99% con A, y también correlacionado al 99% con C, sabes que A y C están correlacionados al menos al 98%, sin decir nada más. La razón es que si hay 1000 preguntas en el examen, 10 respuestas son diferentes entre B y A, y otras 10 preguntas son diferentes entre B y C, así que como mucho hay 20 preguntas diferentes entre A y C. Esto es tan intuitivo, que espero que no necesite una explicación detallada.
La desigualdad de Bell se viola para mediciones locales de espín en pares enredados anticorrelacionados. Si se mide el espín de dos partículas enredadas distantes en un singlete a lo largo de tres direcciones, A,B,C, las respuestas para las dos partículas están siempre anticorrelacionadas entre sí. La respuesta A de una partícula está correlacionada en un 99% con la respuesta B de la otra, la respuesta B está correlacionada en un 99% con la respuesta C de la otra, pero la respuesta C sólo está correlacionada en un 96% con la respuesta A de la otra. Esto significa que si los electrones hicieran crib-sheets antes de tiempo, cuando estuvieran cerca, para decir qué respuesta iban a dar para cada medida, el contenido de los crib-sheets para las tres direcciones definiría a los estudiantes A,B,C (usando cualquier partícula-- los crib-sheets para cada dirección siempre van a ser exactamente opuestos entre los dos), y A,B,C tendrían correlaciones imposibles. Así que no hay crib-sheets locales.
La razón fundamental de la violación es que la amplitud para el desajuste se duplica, pero se eleva al cuadrado para obtener la probabilidad, y la forma de la función de elevación al cuadrado es redonda en la parte inferior, y para que se cumpla la desigualdad de Bell, se necesita una función de probabilidad con una esquina, como la función de valor absoluto. Esta es una característica central de la mecánica cuántica, el redondeo, y es exactamente la razón por la que es difícil simular la mecánica cuántica utilizando la estadística.
Por lo tanto, el teorema de Bell establece que no hay crib-sheets, o bien los crib-sheets se modifican no localmente. ¿Acaba esto con las variables ocultas?
En realidad no, porque ahora sabemos que existe la holografía gravitatoria, que la descripción fundamental de la gravedad es no local y lejana. Esto requiere que la descripción correcta de los pares enredados esté distribuida no localmente en una superficie lejana, y ahora no es inconcebible que se puedan reproducir correlaciones no locales, sólo porque esté distribuida.
Además, ya no es inconcebible que se puedan obtener aumentos de velocidad de tipo raíz cuadrada, como en el algoritmo de búsqueda de Grover, a partir de una descripción distribuida de un estado cuántico. Quizás las variables fundamentales que describen un sistema cuántico están distribuidas en un gran número de copias en el horizonte cosmológico, y cuando estás haciendo el algoritmo de Grover, diferentes secciones del horizonte correspondientes a tu ordenador cuántico localizado están buscando en diferentes lugares de la base de datos, por lo que obtienes un aumento de velocidad de raíz cuadrada (al menos para sistemas mucho más pequeños que el tamaño del horizonte cosmológico). En tales modelos, el aspecto de universo paralelo de la mecánica cuántica tendría un alcance limitado: la cantidad de computación paralela que se puede hacer en una superposición estaría limitada por el tamaño computacional total en bits del horizonte cosmológico.
Este tipo de punto de vista fue sugerido por t'Hooft, inmediatamente después de descubrir el principio de la holografía gravitatoria. Sus modelos para sustituir a la mecánica cuántica han sido preliminares, y no me parecen especialmente persuasivos, pero la idea parece ser que la no localidad debida a la holografía podría ser la misma no localidad que sería necesaria para que las variables ocultas tuvieran sentido.
Para ser innecesariamente pedante en cuanto a la fuente de esta idea (no quiero poner palabras en boca de t'Hooft), no he encontrado este principio holográfico-oculto-variable explícitamente expuesto en los escritos de t'Hooft. Le gustaba dibujar una gran esfera horizonte con 0s y 1s por todas partes, pero sus escritos sobre el teorema de Bell y sus teorías de variables ocultas han sido menos claros. Pero creo que esta es la motivación de sus intentos con las variables ocultas. Me encontré con él una vez en una conferencia hace unos 10 años, y me dijo en privado que cree que un ordenador cuántico fallará debido a fuentes de decoherencia no identificables a los pocos cientos de qubits, no por razones triviales de acoplamiento ambiental, sino por razones de fallo de la mecánica cuántica. Esta predicción sugiere que él pensaba así, al menos entonces.
El problema fundamental de reproducir la mecánica cuántica es que la evolución cuántica es de tipo reversible, mientras que la evolución estocástica es aleatoria e irreversible. Este desajuste hace muy difícil incluso concebir una subestructura estocástica o clásica por debajo de la mecánica cuántica.
Me gustaría mostrar cómo las cosas reversibles pueden suceder en la probabilidad de todos modos, utilizando un rompecabezas ilustrativo sobre la reversibilidad termodinámica:
Supongamos que tengo dos cubos de agua, uno a 100 grados y el otro a cero grados. Se me permite subdividir los cubos en pequeños volúmenes de forma arbitraria, y tocar dos volúmenes cualesquiera entre sí de forma arbitraria, y dejar que el calor fluya hasta el equilibrio entre los dos volúmenes. Pero siempre recuerdo qué recipiente procede de qué cubo, y al final del proceso, vierto toda el agua del primer cubo de nuevo en el primer cubo, y toda el agua del segundo cubo de nuevo en el segundo cubo.
Así que el cubo caliente está ahora más frío, y el cubo frío está ahora más caliente. ¿Cuál es la cantidad máxima de calor que puedo transferir del cubo caliente al cubo frío utilizando únicamente el flujo de calor?
Resolver este problema es un ejercicio divertido, y si quieres hacerlo, no sigas leyendo.
La respuesta es que es imposible transferir la cantidad total de calor del cubo caliente al cubo frío. En realidad, no, esta no es la respuesta, pero me preocupaba que alguien pudiera leer demasiado por accidente y arruinara el problema, que es muy divertido. La respuesta es que es posible transferir casi todo el calor del cubo caliente al cubo frío construyendo un intercambiador de calor.
Se trata de un sistema de pequeños dedales cuya temperatura oscila entre 100 y 0 grados en pasos de (digamos) 1 grado. Así que tienes un pequeño dedal de 99 grados, un pequeño dedal de 98 grados, etc, de cada uno de los cubos caliente y frío. A continuación, toca el dedal de n grados del cubo frío con el dedal de n+2 grados del cubo caliente para formar dos dedales de n+1 grados.
Los dedales calientes bajan 1 grado de temperatura en este proceso, y los fríos suben 1 grado, y se obtienen dos cintas transportadoras que se mueven en sentido opuesto, y que terminan con todos los dedales de cubo caliente alcanzando 1 grado, y todos los dedales de cubo frío a 99 grados. Ajustando la diferencia de temperatura para que sea pequeña, se reduce la brecha.
La lección aquí es simple: si quieres hacer un flujo de calor reversible, tienes que hacer que el calor fluya entre cosas que estén casi exactamente a la misma temperatura.
Ahora daré un rompecabezas superficialmente diferente:
Supongamos que tengo dos habitaciones con el mismo volumen de aire. En una de las habitaciones, hay un único átomo de cloro flotando, difundiéndose. Se me permite subdividir el aire de la habitación en pequeños volúmenes (sin comprobar si hay Cloro), y tocar los volúmenes entre sí para permitir que el Cloro se difunda entre los volúmenes (si está ahí). Al final, devuelvo el aire de cada volumen a su habitación correspondiente. ¿Cuál es la probabilidad máxima con la que puedo transferir el cloro a la otra habitación?
En esta formulación, la respuesta es casi cegadoramente obvia: lo mejor que puedes hacer es acabar con una probabilidad del 50/50 de encontrar el Cloro en cualquiera de las dos habitaciones. Observa que si sustituyes la temperatura por la "probabilidad de encontrar el cloro", este problema es completamente equivalente al anterior, ya que tanto el calor como la probabilidad son difusos. Así que la solución del intercambiador de calor al problema anterior da una doble sorpresa: mediante una complicada coreografía de dedales de aire que se mueven a lo largo de cintas transportadoras, ¡se puede transferir la molécula de cloro entre las dos habitaciones con una probabilidad casi segura! Esto viola la intuición: considere que la mayor parte del tiempo está tocando juntos dedales vacíos, con el único propósito de conseguir que la (minúscula) probabilidad de tener el átomo de cloro en el dedal esté suficientemente cerca de la (también minúscula) probabilidad de tener el átomo de cloro en otro dedal, de modo que puedan tocarse entre sí con seguridad sin causar una ganancia de entropía irreversible. Este complicado baile de dedales vacíos es absolutamente necesario si se quiere una transferencia reversible.
Fue una gran sorpresa para mí, porque se trata de una dinámica lineal reversible que surge de la probabilidad pura. Si utilizas el _exacto_mismo_proceso con un cloro en una habitación y un flúor en la otra, con una probabilidad casi cierta, cambiarán de posición. Si se repite el proceso, el cloro oscilará entre las dos habitaciones. Se supone que los sistemas probabilísticos no oscilan así, sólo los sistemas cuánticos lo hacen.
Así pues, la probabilidad de que el cloro se encuentre en una de las dos habitaciones evoluciona de una forma reversible con aspecto de valor propio complejo, aunque la descripción fundamental es totalmente probabilística y puramente difusiva (y dependiendo del modelo detallado, la dinámica temporal real no es de aspecto cuántico). El requisito clave es que si una partícula puede ir de la región A a la región B, la probabilidad de que la partícula se encuentre en la región A debe ser siempre casi igual a la probabilidad de que se encuentre en la región B (este requisito es también afirmado por t'Hooft, lo que me hizo preguntarme por qué no puedo reconocer la mecánica cuántica de pata de pato en sus artículos). Esto es natural suponerlo en un modelo de tipo holográfico, donde todo lo que se sabe del sistema son variables macroscópicas brutas que son los valores de observables locales para algún sistema.
Así que el requisito de una teoría clásica que pueda sustituir por debajo a la mecánica cuántica, para mí, es que sea una teoría clásica de la probabilidad que tenga la propiedad de que su dinámica de probabilidad pura se describa aproximadamente a grandes escalas por una dinámica cuántica Hamiltoniana reversible, porque toda la difusión se produce entre pequeñas regiones en las que la probabilidad de ocupar las regiones es casi igual. Creo que tal teoría no existe el 60 por ciento de las veces, creo que sí el otro 40 por ciento.
Yo llamaría a tal teoría, si existe, mecánica cuántica de pata de pato. Las patas de pato son intercambiadores de calor casi perfectos.
El documento refuta las interpretaciones de la mecánica cuántica que suponen que existe un estado secreto del sistema $\lambda$ que es diferente de la función de onda, y que no determina la función de onda. Esto incluye todos los modelos de mecánica cuántica de pata de pato, y las ideas de t'Hooft, y casi todos los demás intentos modernos de reemplazar la mecánica cuántica, porque la función de onda es demasiado grande para ser incluida en la descripción de estado de cualquier modelo clásico razonable.
El teorema establece que si la función de onda no está determinada por $\lambda$ existen dos funciones de onda no ortogonales diferentes $|+>$ y $|0>$ La preparación de cualquiera de ellos podría conducir a la misma $\lambda$ . La función de onda no puede determinarse mediante $\lambda$ en un modelo razonable. Está determinado por $\lambda$ en la mecánica bohmiana (porque la ondulación forma parte de la descripción de la fuerza entre las partículas), y por eso la mecánica bohmiana no sirve como sustituto de la mecánica cuántica: se desajusta tanto con la computación clásica, y por eso es tan fundamentalmente incomprensible como la mecánica cuántica.
A continuación, el documento asume que los sistemas distantes son independientes, de modo que dos sistemas se describen mediante $\lambda$ y $\lambda'$ . Usando una base particular de función de onda sesgada, mezclando $|+>|0>$ y $|+>|+>$ etc, demuestran que hay medidas que dan un resultado en mecánica cuántica con certeza que no pueden dar un resultado cierto utilizando el estado oculto $\lambda$ y $\lambda'$ .
Creo que se trata de un resultado poco informativo, porque el Estado $\lambda$ se supone que es como un estado clásico, de modo que la descripción de un sistema de dos partículas es por variables independientes. No está claro que no se pueda violar este teorema teniendo distribuciones de probabilidad correlacionadas para las variables ocultas de los dos sistemas aparentemente no relacionados, e identificando la información del estado clásico con información sobre la densidad de probabilidad correlacionada, de modo que la descripción de los sistemas independientes no sea simplemente concatenar las dos descripciones de cualquiera de los sistemas.
pero el teorema sí descarta un modelo mental ingenuo en el que cada electrón tiene una hoja-cuna secreta en su interior, que te dice el resultado de todos los experimentos, de modo que el número de variables en las hojas-cuna no crece exponencialmente en el número de electrones. Quizá sea una posición de hombre de paja, pero he visto a algunos inexpertos que la sostienen.
El documento no entra en detalles sobre qué interpretaciones refutarían sus resultados. Hay una buena razón para ello: Sus resultados no refutan ninguna interpretación. Están refutando un hombre de paja. He aquí el resultado central que demuestra el artículo, expresado de una forma menos oscura:
"Si un sistema está en estado puro $|+_Z\rangle$ entonces definitivamente no está en otro estado puro diferente $|+_X\rangle$ o lo que sea".
Si esto parece obvio e incontrovertible, ¡lo es! Es cierto que en la sección de conclusiones afirman que dicen cosas que no son obvias... pero se equivocan.
Empecemos por el principio. Definen el debate diciendo que hay dos estados cuánticos puros, $|\phi_0\rangle$ y $|\phi_1\rangle$ . Existe un procedimiento para preparar $|\phi_0\rangle$ y un procedimiento diferente para preparar $|\phi_1\rangle$ . Dicen que hay dos escuelas de pensamiento. La primera escuela de pensamiento (la correcta) es que "el estado cuántico es una propiedad física del sistema", de modo que "el estado cuántico está determinado unívocamente por [la situación física]". Ésa es la que demostrarán que es correcta. Dicen que la alternativa (la incorrecta) es que "el estado cuántico es de naturaleza estadística", con lo que quieren decir que "una especificación completa de [la situación física] no tiene por qué determinar el estado cuántico de forma única".
Digamos que tienes un sistema de espín-1/2, en estado $|+_Z\rangle$ . Entonces... ¡ESPERA UN MINUTO! ¡Acabo de comprometerme con la primera escuela de pensamiento! ¡Dije que el sistema estaba realmente en un cierto estado cuántico!
De hecho, todos los que hacen mecánica cuántica están siempre en la primera escuela de pensamiento, porque decimos que un sistema tiene un estado cuántico y hacemos cálculos sobre cómo evoluciona el estado, etc., si el sistema está en estado puro. (No es necesariamente cierto para los estados mixtos, como se verá más adelante).
¿Cuál sería la segunda corriente de pensamiento? Dirías: "Me sometí a un procedimiento que supuestamente prepara el sistema para el estado puro $|+_Z\rangle$ . Pero en realidad el sistema no tiene un único estado. Tiene alguna probabilidad asociada de alguna manera. Este mismo procedimiento podría haber preparado el estado $|+_X\rangle$ o lo que sea.
Los físicos de verdad tienen una forma de abordar esta posibilidad: Estados mixtos y el formalismo de la matriz de densidad. Si intentas preparar un estado puro pero no lo haces muy bien, entonces obtienes un estado mixto, por ejemplo el estado mixto que tiene un 70% de probabilidades de ser $|+_Z\rangle$ y un 30% de posibilidades de ser $|+_X\rangle$ .
Así que de nuevo, como dije al principio, han demostrado el hecho obvio: "Si un sistema está en estado puro $|+_Z\rangle$ entonces definitivamente no está en otro estado puro diferente $|+_X\rangle$ o lo que sea".
Con una premisa tan obvia e incontrovertible, ¿cómo pretenden concluir algo que no sea totalmente obvio? Vayamos a la sección de conclusiones. Llegan a la conclusión de que el "proceso cuántico de colapso instantáneo de la función de onda [es diferente del] (totalmente no misterioso) procedimiento clásico de actualización de una distribución de probabilidad cuando se adquiere nueva información". En efecto, si un espín se encuentra en el estado $|+_Z\rangle$ entonces adquirir nueva información nunca lo pondrá en el estado $|+_X\rangle$ . Usted tiene que realmente hacer algo al sistema para cambiar un giro de $|+_Z\rangle$ a $|+_X\rangle$ ¡¡!! Por ejemplo, se podría medir, aplicar un campo magnético, etc.
Tomemos un ejemplo más interesante, un par EPR en el estado $(|++\rangle+|--\rangle)/\sqrt{2}$ . Después de preparar el estado, realmente está en este estado cuántico específico. Si lo manipulamos cuidadosamente mientras está aislado, podemos cambiarlo coherentemente a otros estados, etc. Ahora separamos el par. Alguien que quiera describir el primer espín de la forma más completa posible, pero que no tenga acceso al segundo espín, tomaría una traza parcial como de costumbre para obtener una matriz de densidad. Entonces recibe un mensaje de que el segundo espín está en estado +. Modifica su matriz de densidad al estado puro +. Observarás que su ejemplo no muestra que este supuesto colapso viole ninguna ley de la mecánica cuántica. Su refutación es específica para estados puros, y no funcionaría en este ejemplo de estado mixto. Por lo tanto, no pueden concluir que "el colapso cuántico debe corresponder a un proceso físico real" en el caso EPR.
Un ejemplo más: Un giro en estado $|+_Z\rangle$ y lo mides en la dirección X. La ecuación de Schrodinger, interpretada con la teoría de la decoherencia, dice que la función de onda del universo evolucionará coherentemente hacia una superposición de (medición macroscópica de +) y (medición macroscópica de -). En el documento, dicen esto de una manera diferente: "cada componente macroscópicamente diferente tiene una contrapartida directa en la realidad". Esto es decir lo mismo, pero suena más profundo. Espero que cualquiera que entienda la teoría de la decoherencia esté de acuerdo en que ambas medidas macroscópicas forman parte de la función de onda del universo, y que el universo tiene realmente una función de onda que evoluciona unitariamente, aunque no podamos ver la mayor parte de ella. Sin embargo, rara vez nos preocupamos por la función de onda del universo; sólo nos preocupamos por la rama de la función de onda en la que nos encontramos. Y en esa rama es bastante razonable que colapsemos nuestras funciones de onda y digamos que las otras ramas "no son la realidad" (en un sentido más estricto).
-- ACTUALIZAR --
He intentado releer el documento de la forma más caritativa posible. Creo que he sido demasiado duro. Esto es lo que demuestra el documento:
ALEGACIÓN CENTRAL: Digamos que tienes una teoría de variables ocultas, así que cuando "preparas un estado puro $|\psi\rangle$ ", en realidad se prepara el estado $\{|\psi\rangle,A\}$ donde A es la variable oculta que varía aleatoriamente cada vez que preparas el estado. Es imposible tener $\{|\psi_0\rangle,A\}=\{|\psi_1\rangle,A'\}$ si $|\psi_0\rangle\neq|\psi_1\rangle$ . En otras palabras, los conjuntos de variables ocultas de diferentes estados puros no se solapan.
Están refutando un hombre de paja porque no hay ninguna interpretación de la mecánica cuántica que afirme que los conjuntos de variables ocultas de diferentes estados puros deban solaparse entre sí. Ni siquiera las teorías de variables ocultas lo afirman. Existe una llamada "interpretación estadística" en la literatura (defendida por L. Ballentine), que tampoco afirma esto.
Así que esto es un hombre de paja, porque nadie ha argumentado nunca que los conjuntos de variables ocultas de diferentes estados deban solaparse. Pero, no es un hombre de paja manifiestamente ridículo. Al menos, no se me ocurre ninguna forma mucho más sencilla de demostrar esa afirmación. (Hay que reconocer que no pierdo el tiempo pensando en teorías de variables ocultas). Puedo imaginar que alguien que estuviera construyendo una nueva teoría cuántica de variables ocultas no local quisiera saber que los conjuntos de variables ocultas no deberían solaparse.
Creo que esto es Útil, +1, pero también creo que tu caracterización de lo que significa para "un par EPR" estar "en un estado" es más concreta de lo que el experimento justifica --- un experimento sólo puede verificar que un conjunto de mediciones es estadísticamente coherente con una distribución de probabilidad que se deriva en el conjunta hipótesis de que "un conjunto de pares EPR" se encuentra en un estado determinado y que la medición es una realización experimental fiel de un operador de medición dado. El artículo de arXiv al que se hace referencia está escrito de forma demasiado oscura como para saber con certeza a qué se refieren, en mi opinión.
Creo que es usted un poco extremista en cuanto a la interpretación estadística. Es una posición filosófica válida.
Acabo de leer Ballentine's revise sobre la "interpretación estadística". La define como: "un estado puro... no tiene por qué proporcionar una descripción completa de un sistema individual". (Por ejemplo, también puede haber variables ocultas.) El nuevo artículo trata de refutar la afirmación: "Una descripción completa de un sistema individual puede ser coherente con muchos estados puros diferentes a la vez". No es lo mismo. Cualquier sistema individual dado fue preparado por algún método de preparación determinado, y cada método de preparación está asociado con UN SOLO ket según Ballentine.
En mi opinión, el documento del PRB pasa por alto el hecho de que las probabilidades proceden de una granulación gruesa decoherente. A nivel de grano fino, un estado puro es un estado puro. Sin embargo, a efectos prácticos, no se puede hacer una descripción completa de grano fino de un sistema que no sea simple, como una molécula. Lo que hace la granulación gruesa es convertir un estado puro en un estado mixto, y entonces, su teorema no se aplica. Incluso cuando se observa un sistema simple como una molécula, el aparato de medida tiene que ser descrito de una manera de grano grueso, y por lo tanto, las probabilidades entran en juego en el nivel del aparato de medida.
Su teorema no está dirigido a la mecánica cuántica, sino a las ideas de variables ocultas--- está diseñado para establecer que la información de la función de onda no es reducible a datos clásicos independientes que tienen la propiedad de que data(A tensor B)= data(A) U data(B) para sistemas independientes. En realidad no están pasando por alto el grano grueso, simplemente es irrelevante para sus propósitos.
No es posible especificar el estado $\lambda$ de un sistema sin medirlo desde el exterior, interactuando con él de forma dinámica, modificándolo y enredándose con él. Especificar el estado es cambiarlo para que deje de ser el mismo que antes.
En cualquier caso, la PBR supone que, en la práctica, podemos medir un sistema en cualquier base ortonormal que elijamos, por enrevesada que sea. Esto puede ser cierto en principio, pero no en la práctica. La decoherencia tiene una teoría de einselección en las llamadas bases puntuales. Algunas bases son más naturales que otras, siendo las naturales más fáciles de medir, y algunas bases son prácticamente imposibles de medir.
Su argumento es que no es posible especificar el estado de un sistema $\lambda$ en absoluto, ni siquiera lógicamente hablando, no es cuestión de hacer experimentos para determinarlo, si se cumplen los siguientes postulados: 1. el estado oculto no determina la función de onda. 2. Los sistemas independientes tienen un estado oculto que es la concatenación de los datos de estado de los dos sistemas. El segundo supuesto está implícito, por lo que su conclusión es que cualquier dato oculto es al menos lo suficientemente grande como para determinar de forma única la función de onda (que es mucho más grande de lo que permitirían las ideas modernas sobre variables ocultas).
Realmente no creo que este teorema sea tan demoledor como lo pintan. La prueba principal de su artículo es para un qubit preparado en un estado puro particular. Para sistemas realistas de interés, normalmente tenemos muchos grados de libertad internos y la dimensionalidad del espacio de Hilbert es enorme. Dejemos de lado la dificultad de preparar un sistema con muchos d.o.f. internos en un estado puro particular frente a un estado mixto. Cuando hay tantas d.o.f. internas, la construcción de los autores requiere preparar el mismo estado puro un número realmente enorme de veces. Para sistemas de cualquier tamaño significativo, el número de clones preparados resultará poco práctico. Es decir, incluso en la teoría clásica de la probabilidad, si dos científicos asignan diferentes distribuciones de probabilidad a alguna preparación experimental, y este experimento se prepara de la misma manera un número realmente enorme de veces, entonces estadísticamente, con una probabilidad muy alta, se demostrará que al menos uno de los científicos está abrumadoramente equivocado.
En realidad, los autores están colando un conjunto por la puerta de atrás, y los conjuntos tienen interpretaciones estadísticas.
Esto no es cierto. Podemos preparar átomos y fotones con alta fidelidad con equipos modernos que son efectivamente dos estados. Por ejemplo, podría tratarse de una prueba realizada con átomos individuales de rubidio Rydberg, o con fotones. De hecho, puedo ver esta prueba siendo realizada extremadamente rápido por la gente de fotónica. Son muy ágiles.
@Mark: por supuesto que tienes razón, pero lo que quiere decir Peter Moulin podría ser que el experimento mental se vuelve inviable precisamente cuando la descripción de la función de onda es lo suficientemente grande como para que quepa esperar que una descripción coherente de la función de onda fracase por razones fundamentales. La gente que espera que falle la mecánica cuántica sólo espera que falle en superposiciones coherentes de un gran número de cubits.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
2 votos
No, parece que argumentan en contra de la interpretación estadística, por lo que deja todo lo demás.
2 votos
Parece que argumentan en contra de que una interpretación tenga únicamente un significado estadístico. No conozco a nadie que haya insistido en esto. Esto es un engaño usado a menudo por "escritores de ciencia" (y otros escritores) para inventar algún antagonismo que es resuelto/decidido entonces por "nuevos" resultados/hallazgos/teorías... Alguien comparó esto con el hecho de que las ranas empiezan a ver y atrapar moscas inexistentes cuando no hay ninguna mosca alrededor durante más de 10 minutos.
4 votos
@Georg: no están argumentando contra un hombre de paja--- he visto esta interpretación usada muchas veces, aunque nunca la he sostenido seriamente yo mismo. Es importante señalar que la función de onda es demasiado grande para ser una entidad real si el universo está haciendo computación clásica, y como nuestros cerebros ciertamente están haciendo computación clásica, la mecánica cuántica da al universo un carácter esencialmente incognoscible. Hay gente que busca reducciones de la mecánica cuántica, y este teorema es una guía útil. Es un argumento sencillo, pero eso no debería ser un argumento en su contra.
1 votos
Hola Ron, mi comentario se refería en parte a los autores y en parte a la tal Sra. Reich. Es bien conocida por ser una escritora "científica" a la que le gusta exagerar mucho. Tal sensacionalismo a la Bildzeitung es repugnante.
4 votos
@RonMaimon No estoy de acuerdo en que nuestros cerebros "ciertamente hacen computación clásica" . El metanivel de la lógica entrenada sí. Las estructuras básicas del pensamiento, el inconsciente, etc. son altamente probabilísticas y holográficas. En realidad, se acercan a las probabilidades de la función de onda, cualitativamente, en mi opinión. Solemos llamarlo "intuición".
3 votos
@anna v: Quería decir computación clásica frente a computación cuántica, no computación clásica frente a computación probabilística. Estoy de acuerdo en que hay componentes del pensamiento que son distribuidos y probabilísticos, pero esto cuenta como clásico para mí, porque no podemos poner partes de neuronas en superposiciones internamente y ejecutarlas a través de puertas cuánticas.
3 votos
@RonMaimon Creo que el jurado aún debe estar fuera de esto hasta que realmente sepamos cómo funcionan las neuronas y todo el asunto de la generación de pensamientos.
1 votos
@anna v: Para no ser reservada, mi opinión personal es que la memoria en las neuronas funciona utilizando cintas de moléculas de ARN unidas a la membrana que registran y producen trenes de espigas entre neuronas, que la mayor parte de la computación son operaciones estocásticas clásicas de doble unión/corte/empalme en el ARN sináptico, y en el cuerpo principal de la célula, con un transporte más lento de estos ARN que contienen memoria dentro y fuera del cuerpo. Nadie más piensa esto, con la posible excepción de John Mattick en Australia. Se trata de una idea puramente teórica, basada en la ridículamente diminuta memoria RAM de las redes neuronales, ~ 1bit/célula.
1 votos
@anna v: Pero sea cual sea el mecanismo, es imposible imaginar superposiciones coherentes en las neuronas a temperatura ambiente, teniendo en cuenta la dificultad que se tiene para controlar la decoherencia. El almacenamiento de información de que disponen las neuronas es todo puramente clásico y puramente discreto. No se pueden almacenar datos de variables continuas, por la sencilla razón de que dos variables reales suficientemente cercanas no se pueden distinguir con fidelidad y, por tanto, los datos de bits lejanos no se pueden leer. Esta discreción nunca se ha apreciado adecuadamente en biología, pero esto cambiará.
0 votos
@anna v: No descarto que la computación en la mente sea masiva: el contenido aproximado de memoria en el ARN de una célula es de 1 Gbyte/célula (¡por célula!), y en las neuronas, con sinapsis independientes, podría haber 10 Gbytes/célula, con 10 billones de células, o 100.000 millones de Terabytes por cerebro, cada megabyte realizando una computación independiente a una velocidad de reloj molecular, no celular, de muchos megahercios. En un modelo así, no es imposible ver cómo pueden surgir fenómenos de intuición a nivel cerebral. Debo decir que todo esto es una idea puramente teórica mía, nadie está de acuerdo con ella.
0 votos
@RonMaimon Las teorías están bien, lo que falta son pruebas experimentales. No sigo el campo pero recuerdo preguntas sobre si las neuronas muestran superconductividad a temperatura ambiente, hace tiempo. No descarto que con el tamaño del ADN los efectos fueran mecánicos cuánticos incluso en tu modelo. De todos modos, como demuestran los comportamientos de los cristales, la mecánica cuántica puede tener manifestaciones de largo alcance, y quizá el ADN sólo utilice la química del cuerpo para orquestar un gran "cristal" (un modelo improvisado :)). Es un campo interesante que aún debe explorarse experimentalmente.
1 votos
@anna v: Aunque las neuronas fueran superconductoras, no puedes usar superconductores para computación cuántica porque los superconductores son clásicos de límite de onda, su campo condensado tiene un valor clásico. Las ondas clásicas no pueden utilizarse para la computación cuántica, al igual que las partículas clásicas. Para tener un ordenador cuántico se necesitan delicadas superposiciones coherentes entre objetos relativamente lejanos que estén totalmente enredados, y la superconductividad no ayuda en este sentido (al menos no de forma evidente).