8 votos

Las nociones de "independiente" y "no" para subconjuntos de los números naturales

En probabilidad y estadística, existe una noción de dos cosas que son "independientes", lo que básicamente significa que cualquier información que podemos obtener sobre una cosa no tiene ningún efecto en nuestra (probabilístico) el conocimiento de los otros.

¿Cuáles son los posibles nociones de "independiente" de los números naturales? Bajo esta noción, por ejemplo, las propiedades de "ser múltiplo de 2" y "múltiplo de 3" son independientes, mientras que "múltiplo de 4" y "múltiplo de 6" no, porque algo que es un múltiplo de 4 significa que es y lo que es más probable que sea un múltiplo de 6.

No hay ninguna probabilidad de medida en los números naturales, donde cada número natural lleva a un igual positiva de peso (no hay una distribución uniforme de los números naturales, porque son contables) por lo que el sustituto parece ser el de buscar en todos los números naturales hasta algún número natural n, considere el grado de dependencia y, a continuación, tomar el límite de $n \to \infty$. O, tal vez en lugar de mirar los segmentos inicial, podemos ver a los segmentos de enteros consecutivos, empezando y terminando en finito de puntos, y medir el grado de dependencia de allí. Hay otras nociones que son cualitativamente diferentes, o más fuerte o más débil? Lo nociones de independencia son los más útiles para aplicaciones específicas (tales como la distribución de los números primos, aditivo combinatoria)?

En una nota relacionada, ¿hay alguna forma de hacer sentido de la "correlación" entre dos (infinito) de los subconjuntos de los números naturales, que podrían jugar algún papel análogo a lo que la correlación juega en probabliity/estadísticas? Incluso si no hay un numérica de manera rigurosa, hay alguna manera en la que podemos definir una noción de "correlación" para infinitos subconjuntos de los números naturales. (Esperemos que, de una manera independiente, subconjuntos son no correlacionados)? Mi conjetura sería medir las correlaciones en algunos apto para todos los números hasta el $n$ y, a continuación, tomar el límite de $n \to \infty$.

12voto

Robert Höglund Puntos 5572

Existen algunas formas de asignar la probabilidad de medidas para el conjunto de antural números. Consideran que la probabilidad de medida $P_s$ en los enteros positivos que asigna la "probabilidad" $n^{-s}/\zeta(s)$ a el entero $n$. ($s$ es una constante número real mayor que $1$.)

A continuación, en virtud de esta medida de ser un múltiplo de $r$ y un múltiplo de $s$ son eventos independientes, en el sentido probabilístico, si $r$ $s$ no tienen un común múltiplo. Usted puede mostrar esta forma de iniciar el hecho de que la medida asignado al conjunto de los múltiplos de $k$, para algún entero positivo $k$, es $$ {1 \over \zeta(s)} \sum_{n=1}^\infty {1 \over (kn)^s} = {1 \over \zeta(s)} {1 \over k^s} \zeta(s) = {1 \over k^s}. $$ Es decir, la probabilidad de que un aleatorios enteros positivos es divisible por $k$$k^{-s}$. Por supuesto, usted desea que todos los números enteros son igualmente probables, que debe corresponder a la $s = 1$.

(Esto lo aprendí de Gian-Carlo Rota, Combinatoria Instantáneas. Enlace va a SpringerLink, lo siento si no tiene acceso.)

En "condiciones adecuadas", que no sé lo que son, porque Rota no decir, la densidad de cualquier conjunto de números naturales de $A$ es el límite de $\lim_{s \to 1^+} P_s(A)$.

En particular, podría ser razonable para definir la correlación entre los conjuntos de números naturales en la misma forma. Deje $A$ $B$ dos conjuntos de números naturales. Deje $X$ $Y$ ser el indicador de variables aleatorias de los conjuntos de $A$ $B$ en la medida de lo $P_s$. El coeficiente de correlación de Pearson entre el $X$ $Y$ es $$ {(E(XY) - E(X) E(Y)) \over \sigma_X \sigma_Y }$$ donde $E$ es la expectativa y la $\sigma$ es la desviación estándar. Por supuesto, esto puede ser simplificado en el caso de que $X$ $Y$ son indicadores (y por lo tanto solo toma los valores de $0$ o $1$) -- en particular, se simplifica a $$ {P_s(A \cap B) - P_s(A) P_s(B) \over \sqrt{P_s(A) P_s(B) (1-P_s(A)) (1-P_s(B))}} $$ Podríamos entonces deifne la correlación entre el $A$ $B$ a ser el límite de este como $s \to 1+$.

En el caso de que $A$ es el evento divisible by 2'', for example, and $B$ is the eventdivisible por 3", $A \cap B$ es el caso de `divisible por 6". Así $P_s(A \cap B) = 6^{-s}$, $P_s(A) = 2^{-s}$, y $P_s(A) = 3^{-s}$, por lo que el numerador aquí es 0 y por lo que la correlación es cero.

Pero en el caso de que $A$ es el evento divisible by 4'' and $B$ is the eventdivisible por 6", $A \cap B$ es el caso de `divisible por 12". Así que la correlación con respecto a $P_s$ es $$ {12^{-s} - 24^{-s} \over \sqrt{4^{-s} 6^{-s} (1-4^{-s}) (1-6^{-s})}} $$ que tiene el límite de $1/\sqrt{15}$$s \to 1^+$; de forma más general, la correlación entre el ser divisible por $a$ y ser divisible por $b$ es $$ {ab - lcm(a,b) \over lcm(a,b) \sqrt{(a-1)(b-1)}} $$ y esto puede o no puede ser lo que usted desea.

7voto

sconklin Puntos 431

La independencia no tiene nada que ver con la distribución uniforme. Es muy común para definir una secuencia infinita de medidas cuyo conjunto de medida es el producto de la medida. También es común para definir finito-dimensional distribuciones y, a continuación, utilizar una extensión del teorema (Daniell-Kolmogorov, Ionescu Tulcea, etc.) para demostrar la existencia de una (única) de la medida en el infinito espacio del producto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X