Algunas personas atribuyen la dualidad a la dualidad entre el aparato clásico y el sistema microscópico cuántico, pero creo que esto es un poco anticuado. La descripción cuántica también funciona para un aparato malo y un aparato grande--- como mi ojo mirando una bola metálica mesoscópica con luz brillando sobre ella. Esta situación no mide la posición de la bola, ni el momento, ni nada preciso en absoluto. De hecho, es difícil determinar exactamente qué operador está midiendo mi ojo mirando algunos fotones.
Un enfoque moderno de la mecánica cuántica trata todo el sistema como una mecánica cuántica, incluido mi ojo, y yo mismo. Pero entonces se pone de manifiesto el origen del dualismo. Si simulo mi propia función de onda en un ordenador, y la de la pelota, y la luz, (la simulación sería enormemente grande, pero ignoremos eso por ahora), ¿dónde está mi percepción de la pelota contenida en la simulación?
No está claro, porque la evolución produciría un conjunto enormemente grande de valores de la función de onda en una dimensión extremadamente alta, la mayoría de los cuales son infinitamente pequeños, pero algunos de los cuales están dispersos en configuraciones que describen uno de los muchos resultados posibles. La evolución temporal lineal produciría una colección multiplicadora de configuraciones ponderadas, pero nunca contendrá un bit de datos correspondiente a mi experiencia. Pero yo puedo hacer introspección y averiguar mi propia experiencia, así que este bit de datos me es definitivamente accesible. Así que puedo ver un bit de datos utilizando mi mente que no es claramente extraíble de esta simulación informática de mi mente.
El problema básico es que el conocimiento que tenemos en la cabeza es información clásica, bien podrían ser datos en un ordenador. Pero el sistema cuántico no se compone de información clásica, sino de datos de la función de onda, y los datos de la función de onda no son información clásica, ni una distribución de probabilidad sobre la información clásica, por lo que no tienen una interpretación obvia como desconocimiento de la información clásica.
La razón por la que la probabilidad es única es porque sólo el cálculo de probabilidades tiene la propiedad de Monte-Carlo de que si muestreas la distribución y promedias sobre la evolución temporal de las muestras, es lo mismo que promediar sobre la evolución temporal de la distribución. En mecánica cuántica, las muestras pueden interferir con otras muestras, lo que hace que la restricción a una colección de muestras clásicas independientes sea inconsistente. Así que no puedo decir que la simulación esté simulando una de muchas muestras, como mucho puedo decir que está simulando aproximadamente uno de muchos grupos de muestras correspondientes a historias casi completamente descoherenciadas.
Pero cuando me enredo con un sistema cuántico utilizando un dispositivo que se enreda a sí mismo con un sistema cuántico, descubro _haciéndolo_ que el resultado es probabilístico sobre la información clásica en mi mente. La información clásica se determina después del evento de entrelazamiento, el resultado es aleatorio con probabilidades dadas por la regla de Born, así que el resultado es definitivamente una probabilidad. Pero el resultado es sólo en el mejor de los casos asintótico a una probabilidad en mecánica cuántica.
¿Por qué la dualidad?
La dualidad en las descripciones cuánticas es siempre entre la evolución lineal de la función de onda mecánica cuántica y la producción de datos clásicos según una distribución de probabilidad. Las funciones de onda no son probabilidades, pero cuando producen datos clásicos, sólo pueden ser probabilidades, así que se convierten en probabilidades. ¿Cómo se convierten exactamente en probabilidades?
Este es el desajuste entre el cálculo probabilístico para el conocimiento y la información, y el formalismo mecánico cuántico para los estados. Para producir probabilidades a partir de la mecánica cuántica pura, hay que encontrar la razón adecuada de por qué las funciones de onda están vinculadas a las probabilidades.
Cada interpretación tiene un sabor diferente para explicar el vínculo, pero de éstas, Copenhague, muchos-mundos, CCC, muchas-mente y decoherencia/historias-consistentes sitúan la razón en la transición a un observador-reino macroscópico. Los detalles son ligeramente diferentes: Copenhague tiene una división ritualizada entre sistema/aparato/observador, una división clásica-cuántica que parece artificial. Many-worlds tiene un camino de recuerdos del observador, que selecciona qué mundo se observa. Many-minds también, no puedo distinguir entre many-minds y many-worlds, ni siquiera filosóficamente. Creo que many-minds fue inventado por alguien que malinterpretó many-worlds como algo distinto de many-minds. Conciencia-Causas-Colapso es lo mismo también, excepto que rechaza las historias mentales contrafácticas alternativas como "inexistentes" (signifique eso lo que signifique exactamente, tampoco puedo diferenciar esto de muchos-mundos). Decoherencia/historias consistentes insiste en que el camino es una selección consistente de decoherencia que es simplemente una buena dirección en la que la función de onda se ha vuelto incoherente y la matriz de densidad es diagonal, pero se especifica fuera de la teoría. Es siempre el mismo dualismo: los datos clásicos no están en la simulación, y podemos verlos en nuestras cabezas, y la reducción a una matriz de densidad diagonal sólo es cierta asintóticamente, y necesita ser exactamente cierta para funcionar.
Las variables que describen nuestra experiencia del mundo macroscópico son paquetes discretos de información con un valor definido, o distribuciones de probabilidad sobre los mismos, que están modelando nuestra ignorancia antes de que obtengamos el valor. No hay nada más ahí fuera que pueda describir nuestra experiencia. La simulación cuántica simplemente no contiene estos bits clásicos, ni contiene nada que sea exacta y precisamente una distribución de probabilidad clásica.
Simule mecánicamente cuántica una partícula en superposición interactuando con un modelo de cerebro en miniatura, y la luz de la partícula activa una molécula en el cerebro para almacenar la información sobre la posición de la molécula, el formalismo cuántico producirá una superposición de al menos dos configuraciones diferentes de la molécula y del cerebro, pero en ningún momento contendrá el valor real del bit observado, ni una distribución de probabilidad para este valor.
Si esta simulación de la función de onda cuántica es una simulación adecuada del cerebro, entonces este cerebro interno tiene acceso a más información que la que contiene la simulación completa vista desde fuera. Por lo que veo, hay exactamente dos posibles explicaciones para esto.
Muchos mundos
La idea parte de la observación de que no se puede saber de antemano qué se siente al estar en una superposición, porque lo que "se siente" en un fenómeno físico no forma parte de la física. Siempre hay un diccionario entre la física y la "sensación" que te dice cómo hacer coincidir las descripciones físicas con la experiencia. Por ejemplo, relacionar la luz de una determinada longitud de onda con la experiencia de ver el rojo.
Si se simula un cerebro clásico, y se copian los datos en la simulación del cerebro clásico, al consultar las copias, se verá que no pueden diferenciar entre sus pasados, y ambas pensarán que son la misma persona. La simulación cuántica contiene todo tipo de cosas en su interior, y no está claro cómo se sienten las cosas internas, porque todo depende de cómo se consulten las cosas. Si se interroga a componentes extremadamente improbables de la superposición, se puede obtener cualquier respuesta a cualquier pregunta que se formule. Tienes que hacer preguntas, porque sin una forma positiva de investigar los sentimientos del cerebro, no hay ningún significado que puedas asignar a la afirmación de que tiene sentimientos en absoluto. Cuando se hace la pregunta, hay que elegir qué rama del sistema cuántico simulado se va a consultar.
Así que no hay una forma obvia de incrustar las experiencias clásicas en la simulación, y la interpretación de muchos mundos adopta el punto de vista de que es sólo un axioma perceptivo, como ver el rojo, que la forma en que nuestras mentes clásicas están incrustadas en un universo cuántico es que sienten un camino único a través de una red decoherente de eventos cuánticos en propagación. Una mente clásica simplemente no se "siente" superpuesta, no puede sentirse superpuesta porque los sentimientos son cosas clásicas.
Debido a ello, la incrustación en el modelo está un poco desviada, y nuestra mente tiene que seleccionar un camino a través de las posibles historias divergentes. La selección del camino por parte de la mente produce nueva información clásica a través del tiempo, y la dualidad en la mecánica cuántica se identifica con la dualidad mente-cuerpo de los filósofos.
La mecánica cuántica es mensurablemente errónea
Creo que ésta es la única otra posibilidad plausible. La existencia de datos clásicos en nuestra experiencia hace filosóficamente preferible tener una teoría que pueda decir algo sobre estos datos clásicos, que pueda interpretarlos como un valor agudo de una cantidad en la teoría, en lugar de una historia-especificación que está fuera de la física de la teoría. Esto puede ser filosóficamente preferible por dos razones:
- Permite una identificación física de los datos mentales con bits reales que pueden extraerse de la simulación, de modo que los valores de bits definitivos que codifican nuestras experiencias están contenidos en una simulación fundamental directamente, como lo están en el modelo clásico del mundo.
- Significa que las simulaciones del mundo físico pueden comprenderse plenamente: son cálculos clásicos sobre datos clásicos, o distribuciones de probabilidad que representan conjuntos de datos clásicos.
Creo que la única razón real para preferir una teoría así es si pudiera describir el mundo con un modelo más pequeño que la mecánica cuántica, que requiriera menos números para simular. Parece un despilfarro terrible requerir recursos exponencialmente crecientes para simular N-partículas, especialmente cuando el resultado en la vida real es casi siempre un comportamiento clásico con una variable de estado lineal en N.
Pero la única forma en que una teoría puede hacer esto es si la teoría no coincide con la mecánica cuántica al menos cuando se hace el algoritmo de Shor. Así que esta posición es que la mecánica cuántica es errónea para sistemas de muchas partículas fuertemente entrelazados. En este caso, el dualismo de la mecánica cuántica se debería a que es una aproximación a algo más profundo que no es dual, pero la aproximación hace funciones de onda a partir de distribuciones de probabilidad en algún límite desconocido, y este límite es imperfecto. Así que las funciones de onda son aproximaciones a las probabilidades, no al revés, y nosotros vemos lo real, las probabilidades, porque a nuestra escala, la descripción de la función de onda no es buena.
Nadie tiene esa teoría. Lo más parecido es la versión Born de la mecánica cuántica, que es computacionalmente aún mayor que la mecánica cuántica, y por tanto aún menos satisfactoria filosóficamente.
Estaría bien incluso encontrar un método a medio camino, un método de simulación de sistemas cuánticos que no requiera recursos exponenciales, excepto en aquellos casos en los que se configura un ordenador cuántico para hacer cosas exponenciales. Tampoco nadie tiene un método así.