Cohen descubrimiento de forzar a que se ajusta a la ley, en mi opinión.
Este es definitivamente más técnico de lo que puede ser ideal, pero creo que todavía fresco e interesante. Voy a evitar un montón de sutilezas, en aras de la legibilidad por una más audiencia general. Quiero saber si hay algún punto que te gustaría que yo elaborada!
El problema
Ir a la derecha de nuevo a cuando moderno conjunto de la teoría: la distinción entre contables e incontables conjuntos. Después de descubrir que los números reales son innumerables, Cantor pidió a la obvia pregunta de seguimiento: qué, si algo, es entre?
Hay dos posibilidades obvias para el tamaño (cardinalidad) de un conjunto $X$ reales: podría ser "pequeño", es decir, contables o finito o podría ser tan grande como sea posible, esto es, de la misma cardinalidad como $\mathbb{R}$ sí. Cantor preguntó si había una tercera opción. Que es:
Hay un conjunto de números reales, que es incontable, pero tiene cardinalidad $<\vert\mathbb{R}\vert$?
La conjetura de que la respuesta es "no" es la hipótesis continua.
El fondo
Tiempo de echar a perder el remate: juntos, Gödel y Cohen demostró que la hipótesis continua no puede ser decidido de la habitual de los axiomas de la teoría de conjuntos. (Si esto constituye una respuesta completa es un tema de debate, pero vamos a parar aquí por ahora.) Específicamente, Gödel demostró que ZFC no puede refutar CH, y Cohen demostró que ZFC no puede demostrar CH (es decir, asumiendo que ZFC es consistente - de lo contrario, por supuesto, se pueden hacer ambas cosas!). Ambas piezas fueron revolucionario, pero Cohen, específicamente, implica un cambio total de perspectiva.
Antes de que podamos ver por qué Cohen solución fue tan revolucionario, tenemos que hablar un poco acerca de dos cosas: (i) cómo probar un resultado de consistencia sucede, y (ii) cómo Gödel hizo su mitad.
¿Cómo hace uno para probar la consistencia? Por Gödel teorema de completitud - no, eso no es un error - la consistencia es lo mismo que tener un modelo. Que es:
Para mostrar que "ZFC no puede refutar $\varphi$ si ZFC es consistente," es suficiente para mostrar cómo construir un modelo de ZFC+$\varphi$ a partir de un modelo de ZFC.
Ambos Gödel y Cohen, por lo tanto, se enfrenta a la pregunta: ¿cómo podemos construir modelos de ZFC?
Gödel abordado este problema mediante el descubrimiento de una canónica modelo de construcción: demostró que cualquier modelo de $M$ de ZFC tiene un submodel, denominado "$L^M$," de los conjuntos que están "bien definida" dentro de $M$ en un cierto modo (llamado "edificable"). Esta subestructura resulta que tiene un montón de "garantía" propiedades, independientemente de cómo, precisamente, $M$ parece; en particular, Gödel demostró que $L^M$ satisface CH incluso si $M$ sí no.
Este enfoque tiene dos limitaciones fundamentales:
- El nuevo modelo que debemos construir a partir de lo anterior es menor: es un submodel de lo que empezar. Este se ejecuta en un enorme problema matemático: por Gödel trabajo podemos demostrar que no es un modelo de ZFC sin submodel donde CH falla (curiosamente, este fue observado por primera vez por Cohen!). Así que nada, como la de Gödel de la construcción se puede demostrar la consistencia de la insuficiencia de CH con ZFC.
(Breve nota histórica: hay técnicas para la construcción de los modelos más grandes de los más pequeños, como ultraproducts, pero, por diversas razones, estos eran inútiles para este problema).
- Más insidiosamente, el nuevo modelo construimos desde que el viejo se describe específicamente. En lo que va de $M$ $L^M$no hay libertad: $L^M$ está totalmente determinado de $M$.
Así que ahora, aquí está lo que Cohen hizo:
La solución
A grandes rasgos, la idea detrás de Cohen planteamiento fue el siguiente: dado un modelo de $M$ de ZFC, vamos a añadir un "random" objeto de $G$ $M$para obtener un modelo más grande $M[G]$. Al elegir el derecho de la noción de "azar", esto nos permitirá construir modelos con las propiedades deseadas.
OK, todo el conjunto de los teóricos simplemente se encogieron. "Al azar" aquí es realmente una desgracia cargado palabra, y de hecho "genérico" es el término que se debe utilizar: el derecho a la analogía aquí es con categoría de lugar de medir. Sin embargo, la aleatoriedad es más entendido en el sentido amplio del concepto, así que me quedo con esa palabra aquí. También, no es totalmente mal.
Una analogía aquí es a menudo hecho con la idea de que junto a un nuevo elemento a un campo - por ejemplo, la aprobación de$\mathbb{R}$$\mathbb{C}$-, pero este tipo de construcción es más "canónica." Lo que Cohen se observa es que en realidad podemos obtener de kilometraje de deliberadamente no se trata de controlar la construcción de un modelo de proceso demasiado!!! Recuerda que el "azar" no es lo mismo como "arbitraria." La idea de que la aleatoriedad proporciona la estructura es, por supuesto, una muy antigua en matemáticas, pero nada como esto había ocurrido dentro de la teoría de conjuntos.
La idea de pensar en grupos aleatorios, y por extensión al azar modelos, era completamente nuevo para la teoría de conjuntos. (Podría decirse que fue anunciada por finito de extensión y prioridad de los argumentos en la teoría de la computabilidad, pero muchas de las pertinentes de la complejidad recae en la forma en que se relaciona la teoría de conjuntos, por lo que realmente esquivando el punto). Cohen descubrió una manera de hablar de "nociones de aleatoriedad" en un modelo de $M$ en términos de parcial de las órdenes en $M$: cada orden parcial genera una noción de "azar extensión." Cohen mostró cómo la teoría de que la extensión está determinada por las propiedades combinatorias de la orden parcial, reduciendo así la tarea de la construcción de un modelo de ZFC + no CH a la tarea de construir un orden parcial con ciertas propiedades - y este último resulta ser muy fácil.
Esto se llama forzar. Su novedad fundamental puede ser visto no sólo en la amplia gama de problemas abiertos aniquiló, sino también en la velocidad con la que fue absorbida y transformada por el más amplio de la lógica de la comunidad: se trataba realmente de un par de claves de los cambios de paradigma (que realmente me he centrado en la parte de arriba), que una vez captado produjo inmediatamente utilizables para la técnica. Demasiadas personas estaban involucradas demasiado rápido para describir en una sola frase, pero entre los principales actores fueron Feferman, Levy, Scott, y Solovay.
Si usted está interesado, usted puede encontrar más de la historia de obligar en Moore artículo o de Cohen recuerdo.