29 votos

Acotar la complejidad de Kolmogorov del modelo estándar

El Complejidad de Kolmogorov de una hipótesis/teoría/modelo es el programa informático más corto que la simule, independientemente de lo ineficiente que sea la ejecución de ese programa en términos de memoria y tiempo. Me interesa saber cuán complejo es el modelo estándar, según esta medida.

Por ejemplo, este vídeo de MinutePhysics señala que el modelo estándar es (casi) una ecuación. Es bastante corta (menos de 50 caracteres), pero, por supuesto, para convertirla en un programa informático también hay que codificar cómo realizar las matemáticas subyacentes.

En el otro extremo del espectro: enseñar física a un humano a través de libros de texto puede hacerse con millones de caracteres, pero la mayor parte de esos "millones" se debe presumiblemente a las limitaciones de comunicar a un humano.

Supongo que espero que la respuesta sea menos de un millón de bytes, y maaaaaaaybe menos de un kilobyte, pero eso no se basa en mucho más que en la intuición. (Obviamente, todo esto tiene que ser relativo a un lenguaje de programación específico. Elige el lenguaje que quieras).

Busqué en Google y en Google Scholar, y me sorprendió no encontrar rápidamente ni siquiera un límite superior suelto de la complejidad de las leyes de la física conocidas. ¿Se ha hecho tal ejercicio de golf en código? ¿Cómo de difícil es hacer uno? ¿Cómo de complicado es el modelo estándar?

1voto

ponir Puntos 6

Lo que has explicado es correcto, dado un lenguaje elegido y un sistema formal siempre hay un programa mínimo que genera el resto de la cadena y puedes utilizarlo como medida de complejidad. Pero hay un problema práctico para implementar esto como forma de comparar dos teorías. Se ha demostrado que no es computable, es decir, no hay ningún programa que tome una cadena $s$ como entrada y produce el número entero $K(s)$ como salida.

1voto

kiwi Puntos 31

Definir la complejidad de Kolmogorov para una teoría requiere definir qué hace el programa. Una posible definición sería que el programa calcula la probabilidad de que una determinada interacción pueda ocurrir o ser observada, dados unos datos iniciales (con una determinada precisión). Otra definición sería que produce el estado del sistema después de un tiempo determinado, dado un estado de entrada (con una precisión determinada). Una tercera definición es que el programa produce la teoría (incluyendo los valores de los parámetros) en algún lenguaje.

Estas tres posibilidades son fundamentalmente diferentes e incluso pueden tener complejidades distintas.

Un programa que prediga los estados SM tendría que realizar esencialmente una solución numérica de las ecuaciones de Lagrange en una red para actualizar los estados; aunque esto parece inviable desde el punto de vista computacional, creo que al menos se podría escribir un algoritmo para obtener un límite superior. FermiQCD , un código para simular el sector QCD, puede descargarse con un tamaño comprimido de 6,9 Mb; sospecharía que añadir el resto del SM no lo haría realmente mucho más grande (y la mayor parte del código trata de otras cosas que el cálculo real del núcleo - hay mucha interfaz de usuario y comentarios allí).

Así que, en este sentido, podemos suponer que el modelo estándar tiene una complejidad de Kolmogorov inferior a 55200000 bits. Pero se trata de una cota muy poco precisa.

0voto

marnix bras Puntos 41

Puedes encontrar este enlace útil. En AIT, cuando se trata de "estimar" (estamos hablando de valores no computables, en el caso general) la complejidad de una cadena finita, esas constantes (relacionadas con el lenguaje de programación) importan. Sólo en el límite asintótico la teoría original tiene sentido. El segundo punto es que estás hablando de una teoría científica (física), por lo que los principios rectores ( por ejemplo el marco matemático , el Lagrangiano, el formalismo Hamiltoniano, el principio de acción mínima, etc) son parte del "lenguaje de programación", se necesita algo más que la computación de una máquina de Turing (en las definiciones, aunque las máquinas de Turing podrían ser suficientes para definir algunos principios). Esa línea de notación matemática compacta que representa el modelo estándar se basa en tales principios, y algunos de ellos son metateóricos. De todos modos, si estudias el trabajo de Chaitin con mayor profundidad, puede que encuentres algunas respuestas.

Un problema más interesante en el que pensar (creo) es este. Quizás el marco matemático lagrangiano/hamiltoniano/de acción representa sólo un "lenguaje de programación". Quizá haya otros, incluso más potentes, por ahí. Este problema permite una multitud de perspectivas, ésta es sólo una de ellas.

También puede considerar un enfoque más simplista, descartando cualquier argumento metateórico y las complejas analogías. El sexto problema de Hilbert (1900) trata de la axiomatización de la física. Dependiendo de la naturaleza de los axiomas, se podría tener en principio una máquina de Turing que codificara estos axiomas (si es que se encuentra). Entonces se podría definir la complejidad del dominio científico considerado (en este caso la física) como la longitud de una cadena binaria que codifique el funcionamiento interno de esta máquina de Turing. Se ha considerado un enfoque similar para las matemáticas (automatización del proceso de descubrimiento matemático), pero los resultados de incompletitud de Godel mostraron las serias limitaciones de este proceso (bueno, hay mucho que decir aquí, y podría haber formas de lidiar con estas limitaciones, pero no hay espacio aquí para esa discusión). Un fenómeno similar podría aparecer en relación con la física, y hay científicos que consideran imposible una axiomatización completa de la física.

En cuanto al modelo estándar, me atrevería a suponer que unos pocos millones de bits de información deberían ser suficientes, como límite superior. Puede que me esté excediendo en dos órdenes de magnitud de un límite superior verdadero y más ajustado.

0voto

Erik Forsberg Puntos 2246

Antes de ver esto, obtuve 3,576MB con un método aproximado de Fermi/retroceso.

Voy a elegir el idioma "Inglés", e importaré dos paquetes, "Matemáticas" y "Física", y escribiré en un moderno lenguaje de programación de alto nivel llamado "Python". Estos paquetes y el diccionario de inglés están almacenados en un gran disco duro en un único ordenador en la Tierra. Puedo utilizar un poco de filosofía natural.

La configuración es bastante sencilla. Queremos comunicar "El Modelo Estándar" a otra entidad. Vamos a terminar con un archivo .txt, que se enviará a través de una línea.

Imaginemos a la persona A, que sólo habla inglés y tiene un profundo conocimiento de las matemáticas, la física y el "Modelo Estándar", quizás un físico experimental que trabaja en el CERN. Esta persona puede, con un puñado de líneas garabateadas y un pequeño cuaderno con una veintena de números racionales, ponerse al lado de una gran máquina y decir qué números van a salir de ella. Es realmente extraordinario.

Aquí están las líneas garabateadas (o un punto en un espacio de píxeles de alta dimensión - tú decides):

The Standard Model Lagrangian

Las masas están determinadas experimentalmente, y podríamos definirlas como constantes en nuestro programa informático:

import English 
import math
import physics

unit = GeV/c^2
m1 = 0
m2 = 0
m3 = 
...
m17 = 173.1
m18 = 0.0072973525693
...
m22 = ...

y así sucesivamente para las 22 constantes.

Sin embargo, hacemos trampa si nos detenemos aquí. Esta persona tiene un cerebro, y en ese cerebro está la lengua inglesa, no menos de 50-100 cursos de matemáticas y física, cientos de documentos que se vertieron línea por línea, y el libro en la mano.

Necesitaremos una referencia mayormente "autocontenida" que discuta el "Modelo Estándar", así que tomemos "Mathematical Aspects of Quantum Field Theory" de Edson De Faria y Welington de Melo. Tiene unas 300 páginas (298), e incluye unas 100 referencias (94) en la bibliografía. Supongamos que el número de cursos es de 50, y que hay un libro de texto para cada curso. Supongamos que las referencias son todas de 50 páginas, y que los libros de texto son todos de 300 páginas. Para un archivo .tex estándar, habrá una cierta proporción de número de símbolos por página .pdf. Basado en uno que tenía, era alrededor de $ 2000(symbol/page)=100(symbol/line)*20(line/page)$

Esto da

$courses+refs+textbook=50course*1(book/course)*300(page/book)*2000(symbol/page)+100ref*50(page/ref)*2000(symbol/page)+1book*300(page/book)*2000(symbol/page)=40.6*10^6symbol$

Supongamos que cada símbolo es un byte, por lo que obtenemos $40.6MB$ . Ahora, tenemos que incluir el tamaño de las matemáticas, la física, el inglés y el Python. El diccionario de inglés y el código de Python son fácilmente medibles. Las matemáticas y la física son mucho más difíciles. Digamos que las matemáticas y la física están contenidas en los cursos, las referencias y los libros de texto. Digamos que el idioma inglés y Python juntos son $40.6MB$ para un total de $81.2MB$ .

Ahora, este archivo está descomprimido. Digamos que tenemos una relación de compresión de 1/3, por lo que obtenemos $27.06MB$ .

Persona $\alpha$ habla español, y vamos a suponer que son muy inteligentes y bien educados, pero no se encontraron con nada de matemáticas o física en la escuela. Imaginamos que ambos utilizan ordenadores, que están conectados por un cable a gran distancia.

Además de las matemáticas y la física que habrá que transmitir, la persona A tendrá que aprender español y la persona $\alpha$ necesitará aprender inglés, por lo que tenemos dos dependencias más, una red neuronal de traducción (o persona), y un paquete de pedagogía (o profesor):

import teacher
import translator

No sé la complejidad de Kolmogorov de ninguno de ellos.

Sin embargo, para las versiones de máquinas inferiores, podemos hacer una aproximación.

OpenNMT es un algoritmo de traducción basado en una red neuronal de código abierto ( https://github.com/OpenNMT/OpenNMT-py ). Es $34.749MB$ con cremallera.

La enseñanza, o lo que es lo mismo, la habilidad necesaria para trasladar realmente esta información y conocimientos a otro, es la parte más difícil. Algunas universidades fueron pioneras en el esfuerzo de automatizar sus cursos de matemáticas de grado. Esto resultó ser bastante difícil en general, y en su mayoría utilizaron un modelo híbrido. Sin embargo, algunos de los cursos de introducción son completamente en línea con complementos de conferencias en vídeo. Si un curso es de 12 semanas con 4 horas de clase por semana, a ~2GB/hora, estamos en el $100GB/course$ gama.

Así que, a grandes rasgos, un límite superior de la complejidad del Modelo Estándar está entre 61,8MB y 10TB.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X