11 votos

Nociones de "independiente" y "no correlacionado" para subconjuntos de los números naturales

En probabilidad/estadística, existe la noción de que dos cosas son "independientes", lo que básicamente significaría que cualquier información que podamos obtener sobre una cosa no tiene ningún efecto sobre nuestro conocimiento (probabilístico) de la otra.

¿Cuáles son las posibles nociones de "independiente" para los números naturales? Bajo tal noción, por ejemplo, las propiedades de ser "múltiplo de 2" y "múltiplo de 3" son independientes, mientras que "múltiplo de 4" y "múltiplo de 6" no lo son, porque que algo sea múltiplo de 4 significa que es par y eso hace más probable que sea múltiplo de 6.

No hay ninguna medida de probabilidad sobre los números naturales en la que cada número natural tenga un peso positivo igual (no hay distribución uniforme sobre los números naturales, porque son contables) así que el sustituto parece ser mirar todos los números naturales hasta algún número natural n , considere el grado de dependencia allí, y luego tome el límite como $n \to \infty$ . O, tal vez, en lugar de fijarnos en los segmentos iniciales, podemos fijarnos en los segmentos de números enteros consecutivos que empiezan y terminan en puntos finitos, y medir el grado de dependencia en ellos. ¿Existen otras nociones que sean cualitativamente diferentes, o más fuertes, o más débiles? ¿Qué nociones de independencia son más útiles para aplicaciones específicas (como la distribución de números primos o la combinatoria aditiva)?

En relación con esto, ¿hay alguna forma de dar sentido a la "correlación" entre dos subconjuntos (infinitos) de los números naturales, que desempeñe algún papel análogo al que desempeña la correlación en probabilidad/estadística? Incluso si no hay una manera numéricamente rigurosa, ¿hay alguna manera de que podamos definir una noción de "no correlacionado" para subconjuntos infinitos de los números naturales. (Espero que de forma que subconjuntos independientes no estén correlacionados). Mi conjetura sería medir las correlaciones de alguna manera adecuada para todos los números hasta $n$ y luego tomar el límite como $n \to \infty$ .

9voto

Robert Höglund Puntos 5572

Existen algunas formas de asignar medidas de probabilidad al conjunto de los números naturales. Consideremos la medida de probabilidad $P_s$ sobre los enteros positivos que asigna "probabilidad" $n^{-s}/\zeta(s)$ al número entero $n$ . ( $s$ es un número real constante mayor que $1$ .) $\newcommand{\lcm}{\operatorname{lcm}}$

Entonces bajo esta medida siendo un múltiplo de $r$ y un múltiplo de $s$ son sucesos independientes, en sentido probabilístico, si $r$ y $s$ no tienen un múltiplo común. Esto se puede demostrar a partir del hecho de que la medida asignada al conjunto de múltiplos de $k$ para algún número entero positivo $k$ es $$ {1 \over \zeta(s)} \sum_{n=1}^\infty {1 \over (kn)^s} = {1 \over \zeta(s)} {1 \over k^s} \zeta(s) = {1 \over k^s}. $$ Es decir, la probabilidad de que un número entero positivo aleatorio sea divisible por $k$ es $k^{-s}$ . Por supuesto, en realidad se desea que todos los números enteros tengan la misma probabilidad, lo que debería corresponder a $s = 1$ .

(Esto lo aprendí de Gian-Carlo Rota, Instantáneas combinatorias . El enlace va a SpringerLink; lo siento si no tiene acceso).

En "condiciones adecuadas", que no sé cuáles son porque Rota no lo dice, la densidad de cualquier conjunto de números naturales $A$ es el límite $\lim_{s \to 1^+} P_s(A)$ .

En particular, podría ser razonable definir la correlación entre conjuntos de números naturales del mismo modo. Sea $A$ y $B$ sean dos conjuntos de números naturales. Sea $X$ y $Y$ sean las variables aleatorias indicadoras de los conjuntos $A$ y $B$ en la medida $P_s$ . El [coeficiente de correlación de Pearson}(https://en.wikipedia.org/wiki/Pearson\_product-moment\_correlation\_coefficient) entre $X$ y $Y$ es $$ {(E(XY) - E(X) E(Y)) \over \sigma_X \sigma_Y }$$ donde $E$ es la expectativa y $\sigma$ es la desviación típica. Por supuesto, esto puede simplificarse en el caso en que $X$ y $Y$ son indicadores (y, por tanto, sólo toman los valores $0$ o $1$ ) -- en particular se simplifica a $$ {P_s(A \cap B) - P_s(A) P_s(B) \over \sqrt{P_s(A) P_s(B) (1-P_s(A)) (1-P_s(B))}} $$ Podríamos entonces deifne la correlación entre $A$ y $B$ para ser el límite de esto como $s \to 1+$ .

En caso de que $A$ es el acontecimiento divisible by 2'', for example, and $B$ is the event divisible por 3'', entonces $A \cap B$ es el suceso ``divisible por 6''. Así que $P_s(A \cap B) = 6^{-s}$ , $P_s(A) = 2^{-s}$ y $P_s(A) = 3^{-s}$ por lo que el numerador aquí es 0 y por lo tanto la correlación es cero.

Pero en el caso de que $A$ es el acontecimiento divisible by 4'' and $B$ is the event divisible por 6'', entonces $A \cap B$ es el suceso ``divisible por 12''. Así que la correlación con respecto a $P_s$ es $$ {12^{-s} - 24^{-s} \over \sqrt{4^{-s} 6^{-s} (1-4^{-s}) (1-6^{-s})}} $$ que tiene el límite $1/\sqrt{15}$ como $s \to 1^+$ ; más en general la correlación entre ser divisible por $a$ y siendo divisible por $b$ es $$ {ab - \lcm(a,b) \over \lcm(a,b) \sqrt{(a-1)(b-1)}} $$ y esto puede o no ser lo que quieres.

2voto

sconklin Puntos 431

La independencia no tiene nada que ver con la distribución uniforme. Es muy común definir una secuencia infinita de medidas cuya medida conjunta es la medida del producto. También es común definir distribuciones de dimensión finita y luego utilizar un teorema de extensión (Daniell-Kolmogorov, Ionescu Tulcea etc.) para demostrar la existencia de una medida (única) en el espacio producto infinito.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X