26 votos

¿Existen bases ligeras para objetos arbitrariamente extensibles?

Mi experiencia con las fundaciones es más bien escasa, pero me he topado con algunos tipos de objetos que parecen resistirse al tipo de esquemas de codificación teórica de conjuntos mediante tuplas de Kurowski que son bastante comunes para objetos como grupos y variedades. En concreto, tienden a ser algo así como funciones que pueden aceptar entradas arbitrariamente grandes. Me pregunto si tales objetos pueden recibir fundamentos de una manera razonablemente parsimoniosa, de modo que no tengamos que incluir todas las entradas posibles al considerar una función de este tipo. He aquí tres ejemplos:

  1. Variables aleatorias: Leo de Gowers's blog post que los analistas definen las variables aleatorias como funciones mensurables que satisfacen algunas condiciones, pero que los probabilistas las utilizan de manera incoherente con esa definición. En particular, se plantea el problema de reespecificar el espacio muestral cuando entran en juego nuevas variables aleatorias. Si alguien se me acercara por la calle y me pidiera que formalizara esto, probablemente respondería codificando una variable aleatoria utilizando una clase propia de todas las extensiones posibles de espacios muestrales. Naturalmente, esto parece algo bastante pesado de llevar si quiero decir que una determinada manipulación de la probabilidad está bien definida. Por lo que leo en Entrada del blog de Tao Parece que, en la práctica, se encierra toda mención de variables aleatorias en algo parecido a una teoría de tipos en la que las únicas operaciones y cantidades permitidas son las que son invariantes bajo la extensión del espacio muestral. Desgraciadamente, no sé casi nada de teoría de tipos formal, ¿daría esto una respuesta decente?

  2. Presheaves y sheaves en un sitio: A veces, en geometría algebraica, se consideran topologías de Grothendieck como la topología fpqc, donde incluso sobre un punto, los tipos de isomorfismo de conjuntos abiertos y cubiertas abiertas forman una clase propia. Uno se encuentra entonces con problemas en la literatura, donde la gente afirma que la sheafificación fpqc es un functor, pero lo demuestran utilizando un colímite prohibido sobre todas las cubiertas abiertas. Se trata de un problema honesto: en su artículo Functores básicamente acotados y láminas planas (Pac. J. Math. 57 no. 2 1975), Waterhouse produce un presheaf que no tiene sheafificación fpqc. Sin embargo, también demuestra que para aquellos preperfiles que son extensiones Kan izquierdas de preperfiles sobre anillos con un límite de cardinalidad, la sheafificación y la cohomología son independientes del límite para cualquier topología (por ejemplo, fpqc) que satisfaga una propiedad de aproximación pequeña. Estas extensiones Kan izquierdas se conocen comúnmente como pequeños preeslabones, y esencialmente todos los preeslabones geométricamente interesantes son pequeños. En términos menos técnicos y más generales, en realidad no necesitamos hacer suposiciones teóricas sobre la existencia de universos, o truncar nuestros preespacios para que sólo tengan anillos de tamaño inferior a algún límite (posiblemente muy inaccesible), siempre que sólo hagamos operaciones que preserven un sentido de pequeñez. Estaría bien, aunque quizá no fuera de importancia fundamental, disponer de un formalismo que hiciera sencillo el reconocimiento de tales operaciones.

  3. Supergeometría: Mientras que los matemáticos suelen considerar las supermanifolds como variedades con gavillas de anillos superconmutativos, los físicos que realizan cálculos de primera variación para supercampos suelen hacer uso de un "parámetro impar" que actúa como una variable libre impar que (hasta donde yo sé) no encaja en absoluto en los anillos de los matemáticos. En su libro "Supermanifolds", DeWitt intenta resolver este problema añadiendo un número infinito de variables impar a todo lo que ve, pero esto parece disgustar a los físicos porque un número infinito de esas variables no se utilizan y, por tanto, "carecen de sentido físico". Presumiblemente, uno debería tener un formalismo que le permitiera añadir parámetros impar a sus superálgebras a voluntad, sin tener que cargar con todas las extensiones posibles todo el tiempo.

Espero que estos ejemplos transmitan el sabor de lo que estoy buscando: algún método para considerar objetos flexibles o extensibles que no requiera la consideración de todas las extensiones posibles todo el tiempo.

6voto

Leon Bambrick Puntos 10886

No sé lo suficiente sobre (1) o (3) como para abordarlas con seguridad, aunque sospecho que, como has sugerido, algún tipo de teoría de tipos interna servirá. (Tal vez hacer una pregunta separada sobre cada uno de ellos, con más detalles proporcionados).

Para (2), creo que al menos una respuesta parcial está contenida en mi documento Completaciones exactas y poleas pequeñas En concreto, la sección 9 y, más concretamente, los puntos 9.6-9.10. La idea es que podemos dar una descripción directa de "la categoría de pequeñas gavillas en un sitio grande" que no requiere la consideración de "grandes gavillas" en absoluto. Hay varias maneras de dar tal descripción, que se discuten en el artículo en el contexto más general de un límite de cardinalidad no inaccesible (en cuyo caso también incluye la "terminación exacta"). Pero en general, los objetos de la categoría (las "pequeñas gavillas") son una especie de relación de equivalencia interna de muchos objetos en el sitio, es decir, una pequeña familia de representables "formalmente pegados".

El lema 9.1 y el teorema 9.2 demuestran que si do consideremos la categoría muy grande de las grandes láminas, entonces la categoría de las láminas pequeñas es equivalente a su subcategoría completa que consiste en los objetos que son colímitos pequeños de representables sheafificados, o equivalentemente son la extensión Kan izquierda de una lámina en alguna subcategoría completa pequeña del sitio. Así, por ejemplo, la categoría de conjuntos condensados es la categoría de gavillas pequeñas en el sitio de espacios profinitos. Por otra parte, si la topología es trivial, obtenemos la categoría más conocida de presheaves pequeños mencionado en la pregunta. Por lo tanto, existe un functor de sheafificación de pequeños presheaf a pequeños sheaf --- aunque en general no hay un adjunto derecho a él, es decir, el presheaf subyacente de un pequeño sheaf puede no ser un pequeño presheaf.

La categoría de las láminas pequeñas no es en general un topos (ni Grothendieck ni elemental), pero es lo más parecido: un topos infinito localmente pequeño, es decir, una categoría que cumple todas las condiciones de exactitud del teorema de Giraud, pero no la existencia de un conjunto generador pequeño. Así pues, carece de estructura de "orden superior" como los objetos exponenciales, los objetos potencia y los universos, pero tiene toda la misma estructura de "primer orden" que un topos ordinario de gavillas; esto me parece una forma razonable de dar sentido a tu idea de "operaciones que preservan un sentido de pequeñez".

Esto es bastante específico del caso (2) de las láminas. Pero se relaciona de alguna manera con mi conjetura sobre la respuesta probable de (1) y (3). A saber, cualquier objeto de cualquier categoría determina su funtor representable, y si la categoría es grande, el funtor representable tomará una clase adecuada de entradas posibles --- pero en la mayoría de los casos, el objeto de la categoría puede ser descrito por una pequeña cantidad de datos. Así, si tenemos una "función grande" de algún tipo, podemos intentar verla como el functor representable de un objeto de alguna categoría, para el que podemos dar una presentación "pequeña" más directa. Los lenguajes internos de la teoría de tipos pueden verse como una forma de trabajar cómodamente con funtores representables o elementos generalizados (siendo el "contexto" de la teoría de tipos el dominio de un elemento generalizado).

5voto

Kameryn Williams Puntos 525

Para (2), Colin McLarty ha escrito artículos sobre el uso de la aritmética de orden superior como base para las construcciones de estilo Grothendieck. Su "The large structures of Grothendieck founded on finite order arithmetic" [ Enlace arXiv ] es la referencia principal aquí, pero véase también "A univalent universe in finite order arithmetic" [ Enlace arXiv ].

Esto es similar al enfoque mencionado en la respuesta de Alec Rhea, pero utilizando la aritmética como base en lugar de la teoría de conjuntos. En cualquiera de los dos enfoques, se empieza con el tipo $0$ objetos (enteros o conjuntos) y, a partir de ahí, crear un tipo para cada $n \in \mathbb N$ con tipo $n+1$ objetos que son más o menos colecciones de tipo $n$ objetos. La teoría de conjuntos de orden superior es excesiva en términos de consistencia para muchos resultados, como demuestra el trabajo de McLarty. Pero dependiendo de lo que estés haciendo puede ser más conveniente trabajar en el entorno más fuerte.

3voto

Vipul Sharma Puntos 9

No estoy familiarizado con (1) y sólo tengo una familiaridad pasajera con el superálgebra, pero para (2) puede encontrar la base establecida en mi documento Un enfoque axiomático de la teoría de conjuntos de orden superior satisfactoria.

Trabajando en esta teoría tenemos contablemente muchos niveles de "grandeza" para las "colecciones", con conjuntos como $0$ -colecciones, clases como $1$ -colecciones, etcétera, etcétera.

Esta base se desarrolló originalmente para manejar cosas como topología/análisis/teoría de la medida, etc., sobre los surreales; forman una clase propia, de modo que una topología sobre los surreales sería una colección de clases propias, etc., y trabajando en esta base podemos recopilar esas cosas sin problemas sin depender de cosas como el truco de Scott.

En este contexto, la clase de isomorfismo que se quiere considerar es una propia $1$ -colección suponiendo que se desea la topología fpqc en todos los esquemas afines del tamaño de un conjunto -- más en general, las clases de isomorfismo para la topología fpqc en esquemas afines cuyos anillos subyacentes son todos $n$ -los cobros serán adecuados $n+1$ -y podemos recogerlos sin problemas.

Este fundamento también hace explícita la noción de "pequeño frente a grande" en el nivel axiomático, lo que nos permite recopilar todas las $n$ -colecciones que satisfacen algún predicado como un $n+1$ -colección que a veces también forma $n$ -recogida si se aplica la sustitución.

2voto

dbr Puntos 66401

En relación con (1): En 2020 Alex Simpson dio una charla sobre la teoría de la probabilidad sintética: https://youtu.be/XtsBsLM9ofk donde proporciona los fundamentos de la teoría de la probabilidad en la que las variables aleatorias se tratan como una noción primitiva. Supongo que no hay dificultad en añadir nuevas variables aleatorias en este entorno. Pero aún no he encontrado ninguna publicación suya al respecto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X