La noción de continuo en física no es la de una colección de puntos diferenciados reunidos en un conjunto abstracto, sino la de un límite de estructuras discretas con cómputos finitos definidos sobre ellas. El proceso límite debe estar bien definido, de modo que la respuesta a cualquier pregunta experimental con cualquier precisión pueda responderse mediante un cálculo finito.
Cualquier propiedad de la teoría de conjuntos de la colección de los números reales que se base en separar los puntos individuales de una manera no computable y hablar de ellos utilizando propiedades lógicas de los puntos individuales que implican preguntas indecidibles siempre va a ser antifísica. Esto es cierto para colecciones mucho más suaves que las implicadas en las construcciones del estilo Banach-Tarsky.
Por ejemplo, consideremos la colección de todos los números reales cuyos dígitos codifican la solución del problema de Halting (la colección de todos los grados de Turing superiores a 0'). Existe un predicado lógico que describirá estos números: existe un programa informático que toma los dígitos de este número real, toma un programa informático y escupe la respuesta a la pregunta "¿Se detiene el programa?" después de un número finito de pasos. Así que esta colección de números está bien definida como construcción lógica (al menos en una teoría de conjuntos ordinaria). Se trata de una colección de números reales definida predicativamente, que tiene sentido como conjunto en matemáticas.
Pero, ¿tiene sentido formular una teoría en la que el electrón se comporte de forma diferente cuando está situado en uno de estos puntos especiales? Es evidente que no. El comportamiento del electrón en una teoría física debe describirse mediante un cálculo finito, no mediante un juego lógico abstracto sobre todos los dígitos de su posición. El principio fundamental de la física es que la computación es fundamental, no la teoría de conjuntos. La idea de que la física es computable es la base de la ciencia: la física busca un programa informático que se ajuste al comportamiento de los objetos físicos. No busca una estructura axiomática de teoría de conjuntos que coincida con el comportamiento de estos objetos.
A veces se ha cuestionado este principio, pero en la mayoría de los casos se trata de una tontería. No es directamente relevante para su pregunta, porque usted está interesado en Banach-Tarski.
La analogía de Banach Tarski con la indecidibilidad del grado de Turing es en realidad horrible, porque la paradoja de Banach Tarski es de una naturaleza mucho más no constructiva, en el sentido de que ni siquiera es posible definir propiedades razonables de los puntos que están en uno u otro de estos conjuntos de Banach Tarski. No se puede encontrar un predicado para separar los puntos de estos conjuntos, incluso utilizando super-duper-duper computación de cualquier fuerza. La definición de los conjuntos de Banach Tarski se basa en una noción que es peor que indecidible desde el punto de vista computacional: se basa en una noción indefinible desde el punto de vista predicativo. No se puede decidir si los puntos caen en esta o aquella colección de elección incontable utilizando cualquier tipo de predicado que no se refiera a una función de elección.
La única analogía buena no es una analogía en absoluto, el asunto de Banach Tarsky es simplemente idéntico en molestia filosófica a cualquier otra construcción del axioma de elección donde se aplica el axioma de elección a un conjunto de tamaño continuo o superior. El axioma contable de elección no es un problema, como tampoco lo es el axioma de elección sobre cualquier conjunto incontable que quieras introducir que no sea tan grande como el continuo. Pero en el momento en que se puede hacer elección incontable sobre el continuo, se producen paradojas con probabilidad.
La razón básica es que la noción de probabilidad está intuitivamente bien definida: se puede elegir un número real al azar lanzando monedas a cada paso para elegir los dígitos binarios. Pero una vez calculado el número real aleatorio con precisión infinita, puedes preguntarte "¿pertenece a este conjunto S o no?". Para cada Esto significa que cada subconjunto de [0,1] tiene una noción de medida, que es la probabilidad de que un número aleatorio caiga en ese conjunto.
Esta idea es el conflicto básico entre el axioma de la elección continua y la teoría de la probabilidad. Si te permites elegir muchos puntos continuos, puedes construir conjuntos que no son medibles. Si no te lo permites, puedes hacer medible cualquier subconjunto de [0,1]. Si decides tener elección o probabilidad depende de ti, y la mayoría de los matemáticos eligen la elección sobre la probabilidad. Esto es estúpido, y dificulta la teoría de la medida porque tienes que restringirte a conjuntos medibles, y estos conjuntos medibles incluyen todos los juegos que puedas imaginar incluyendo todas las travesuras del grado de Turing, e incluso cosas indecidibles más altas, excluyendo sólo las selecciones definidas impredicativamente usando la elección continua.
Así que considero que los resultados del tipo Banach Tarsky son mucho peores que antifísicos, van tan lejos como para ser no matemáticos deberían considerarse falsos incluso como matemática pura. Esto debe distinguirse del concepto de número real cuyos dígitos codifican la solución al problema de detención, que se puede pretender que existe en un sentido real sin ningún daño (aunque todavía hay que tener cuidado de señalar su naturaleza no computable). La inclusión de construcciones de elección sobre los números reales no aporta ningún beneficio, y perjudica mucho a la teoría de la integración y la probabilidad.
Cálculo en matemáticas
Incluso dentro de las matemáticas puras, el mecanismo de deducción lógica es siempre un cálculo finito. Si se da una colección bien definida de axiomas, o esquemas axiomáticos, todos cuyos axiomas pueden ser enumerados por un programa informático (esto incluye cualquier teoría matemática razonable), se puede escribir un programa informático para deducir todas las consecuencias de estos axiomas. El teorema de la completitud de Godel afirma que toda deducción se alcanzará mediante las reglas de la lógica de primer orden, y que cuando existe un enunciado indecidible, que no puede demostrarse ni refutarse mediante los axiomas, siempre existe un modelo de los axiomas en el que el enunciado es verdadero, y un modelo en el que el enunciado es falso.
Esto significa que cuando te dan una teoría de conjuntos, que habla de colecciones infinitas no numerables, puedes entender que la teoría está hablando realmente de sus modelos contables, y esto da una interpretación computacional contable a cada teorema. Entonces se puede ignorar la cháchara de que la teoría habla de conjuntos enormes y considerar que la teoría habla de sus modelos contables.
Así, por ejemplo, cuando una teoría dice "todos los números reales se pueden emparejar uno a uno con aleph-1", se puede entender que esto significa "todos los contables números reales en cualquier modelo contable de esta teoría se pueden emparejar 1-1 con los contables elementos de aleph-1 en esta teoría utilizando un símbolo de función que se define dentro de la teoría". También sabes que "R es incontable", lo que significa que "para cualquier símbolo de función en el modelo de la teoría, mapeando los enteros a R, existe un número real x que no está en el rango de este símbolo de función". Esto no hace que los números reales en el modelo sean incontables, por supuesto, sólo está diciendo que la teoría es lo suficientemente fuerte como para demostrar la incontabilidad de R, por lo que nunca puede identificar la contabilidad de los reales en cualquiera de sus modelos desde dentro.
Entonces, las teorías matemáticas nunca hablan de infinitos no enumerables, excepto como una figura retórica muy útil, y todas las preguntas sobre si un teorema es demostrable o no son equivalentes a preguntas sobre estructuras contables cuyas propiedades son generadas por un programa informático explícito.
Es importante tener siempre presente este punto de vista, porque hace que los resultados de indecidibilidad de las teorías de conjuntos sean completamente intuitivos. Si pensamos en los conjuntos de la teoría de conjuntos en términos platónicos, es muy difícil entender los resultados de indecidibilidad, ni los cardinales grandes, ni ninguna otra cosa.
¿Cómo funciona Banach Tarski?
Para explicar Banach Tarski, lo mejor es considerar construcciones más sencillas que le preceden en medio siglo. El primer "teorema" de este tipo es la ordenabilidad de R. Esto se hace de la siguiente manera:
considera el conjunto S de todos los subconjuntos no vacíos de R. Elige un elemento de cada miembro de S, es decir, por cada subconjunto no vacío de R, elige un elemento. Ahora considere R. Este es un subconjunto no vacío de R, por lo que eligió algún elemento. Sea este elemento x(0). Ahora considere R-{x(0)} (el conjunto R con x(0) omitido). Usted eligió un elemento de este conjunto, por lo que llamar a este x(1). Ahora considere R menos x(0) y x(1). Este es un subconjunto no vacío de R, por lo que eligió un elemento de este conjunto, por lo que llamamos que x(2). Continuar por inducción para producir x(n) para todos los enteros n.
Ahora continúa la inducción sobre ordinales. El primer elemento que encuentras después de todos los enteros es $x(\omega)$ que es el elemento que has elegido del conjunto $R - \{x(n)|n\in Z\}$ . Continúe sobre cada ordinal. Es fácil ver que si alguna vez te quedas atascado en este proceso inductivo, la razón debe ser que ya has enumerado cada elemento de R, y esto significa que has emparejado R con un ordinal.
El resto de la prueba consiste en demostrar que debe haber un ordinal suficientemente grande para que este proceso termine. La razón es que si no lo hubiera, entonces este proceso acotaría todos los ordinales desde arriba, permitiéndote acotar la colección de todos los ordinales usando un conjunto, pero no puedes, porque si hay un conjunto de todos los ordinales, es un ordinal, y podrías definir este ordinal más 1 para una contradicción.
Esta prueba, si se mira dentro de un modelo contable, está produciendo un emparejamiento entre los contablemente muchos elementos de R, y algún ordinal contable en el modelo. Este emparejamiento es simplemente falso--- está revelando que tanto R como el ordinal incontable con el que se empareja son contables en el modelo contable.
Así que ahora a Vitali - para hacer un conjunto de Vitali, se considera una relación de equivalencia en los elementos de [0,1) (considerado como el círculo unitario, de modo que la suma y la multiplicación son módulo 1), de modo que x e y son equivalentes si su diferencia es racional (esto es completamente predicativo). Luego se elige mágicamente un elemento de cada clase de equivalencia, y se reúnen en un conjunto S. Este conjunto tiene la propiedad de que contablemente muchos traslados cubren [0,1), por lo que este conjunto no puede tener medida.
Esta es una construcción tonta, porque cualquier intento de especificar qué puntos pertenecen a S requiere una enumeración inductiva de todos estos puntos. Esto equivale a una descripción ordinal de R. Así que tenemos un conjunto que es básicamente una larga lista ordinal de números reales, uno por cada clase de equivalencia.
Banach Tarski hace lo mismo, pero utilizando traslaciones y rotaciones. Para que un número finito de conjuntos cubra las dos esferas, es imprescindible utilizar rotaciones no conmutativas. El argumento es mucho más complicado, pero la dificultad filosófica es la misma de siempre: la noción de elegir un número real al azar entra en conflicto con la noción de elegir simultáneamente un número continuo de elementos de conjuntos.
Forzar
La forma de decirlo con precisión la encontró Paul Cohen. El método de forzamiento permite añadir elementos a R en un modelo contable de tal manera que puedan coincidir uno a uno con un ordinal que sea mayor que cualquier ordinal que se desee.
La idea básica es elegir un número real al azar para cada uno de los contablemente muchos elementos del ordinal que se quiere encajar en R. Esto no es preciso, porque la noción de aleatoriedad es demasiado complicada, así que Cohen utilizó una noción puramente lógica de elegir un número real "genérico", que se define por el proceso que decide qué propiedades son ciertas de este número. El procedimiento se describe desde un punto de vista casi completamente computacional en "Teoría de conjuntos y la hipótesis del continuo" de Cohen, y no se describe desde un punto de vista computacional en casi ningún otro lugar.
A partir de construcciones similares (pero esta vez utilizando la probabilidad), Solovay demostró que es coherente permitir que todos los subconjuntos de los reales sean medibles. La consistencia de la teoría de conjuntos más la elección dependiente (elección contable fuerte) más la mensurabilidad de Lebesgue de todos los subconjuntos de R es uno de los resultados más sorprendentes de la teoría de conjuntos--- garantiza que no hay absolutamente ninguna paradoja al estilo de Banach Tarski para conjuntos construidos de la manera usual, usando definiciones predicativas.
En otras palabras, si no se permiten funciones que seleccionen muchos elementos continuos a la vez, Banach-Tarski falla. No hay absolutamente ningún teorema matemático que dependa de la elección incontable que sea útil para los matemáticos, y ya es hora de desechar esta tontería.