Obtener una respuesta precisa es posible, pero no muy esclarecedor (sería muy complicado, con mil términos que calcular), así que me centraré en dos resultados aproximados: la ley de los grandes números y el teorema central del límite. Con $1000$ lanza sobre un sistema tan simple, están obligados a ser bastante precisos.
Para empezar, digamos que lanzamos un dado estándar un gran número $N$ de veces.
El troquel estándar
Sea $(X_n)_{n \geq 0}$ son los resultados sucesivos del dado, que toman sus valores en $\{1, \ldots, 6\}$ . Entonces el $X_n$ son independientes y están idénticamente distribuidas (cada una tiene una probabilidad de $1/6$ para obtener un número cualquiera).
Sea $f : \{1, \ldots, 6\} \to \mathbb{R}$ un observable. Entonces la secuencia $(f(X_n))_{n \geq 0}$ es también una secuencia de variables aleatorias independientes e idénticamente distribuidas. Pongamos $S_N f := \sum_{k=0}^{N-1} f(X_k)$ . Por ejemplo, si tomamos:
Dado que la expectativa es lineal,
$$\mathbb{E} (S_N f) = \mathbb{E} \left(\sum_{k=0}^{N-1} f(X_k)\right) = \sum_{k=0}^{N-1} \mathbb{E} \left(f(X_k)\right) = N\mathbb{E} \left(f(X_0)\right).$$
Pero eso sólo se refiere al valor medio de $S_N f$ . Desde $f$ está acotada y, por tanto, es integrable, la (débil) ley de los grandes números afirma que, en la distribución,
$$\lim_{N \to + \infty} \frac{S_N f}{N} =\mathbb{E} \left(f(X_0)\right).$$
Así se obtiene un resultado de primer orden. Esto no es completamente satisfactorio; por ejemplo, si $\mathbb{E} \left(f(X_0)\right) = 0$ esta ley nos dice que la suma crece sub-linealmente. Podemos querer algo más preciso, que nos dé una distribución límite no degenerada. Dado que $f$ está acotada, es cuadrada-integrable, y podemos aplicar la teorema central del límite :
$$\lim_{N \to + \infty} \frac{S_N f-N\mathbb{E} \left(f(X_0)\right)}{\sqrt{N}} = \sigma(f) \mathcal{N},$$
donde la convergencia está en la distribución, $\mathcal{N}$ es una gaussiana centrada estándar, $\overline{f} = f-\mathbb{E} (f)$ y:
$$\sigma(f)^2 = \mathbb{E} (\overline{f}^2) = \frac{1}{6} \sum_{k=1}^6 \overline{f}(k)^2,$$
Por ejemplo, si $f(x) = 1_{x=4}$ , obtenemos:
$$\lim_{N \to + \infty} \frac{S_N f}{N} = \frac{1}{6},$$
así que más o menos $1/6$ de los lanzamientos producen un $4$ y:
$$\lim_{N \to + \infty} \frac{S_N f-N/6}{\sqrt{N}} = \frac{\sqrt{5}}{6} \mathcal{N},$$
que nos dice, por ejemplo, que el número de $4$ con probabilidad $0.95$ estará en el intervalo $[N/6-\sqrt{5N}/3, N/6+\sqrt{5N}/3]$ . Para $N = 1000$ lanza, este es el intervalo $[143,190]$ .
El dado mágico
Ahora mostraré cómo se aplican estos resultados al dado mágico. Sin embargo, no demostraré lo que afirmo, porque tiende a ser de bastante alto nivel (hago esto en un curso de posgrado, normalmente). Supondré que el dado es justo: para la primera tirada, el $6$ los posibles resultados son igualmente probables, y para cada lanzamiento después del primero, el $5$ los posibles resultados también son igualmente probables. La primera observación es que, para cualquier lanzamiento dado,
$$\mathbb{P} (X_n = 1) = \ldots = \mathbb{P} (X_n = 6) = \frac{1}{6}.$$
Esto se debe a que, si reetiquetas las caras del dado, no cambia la ley de la secuencia de lanzamientos, por lo que en cada lanzamiento, todos los resultados tienen la misma probabilidad.
La secuencia $(X_n)_{n \geq 0}$ es entonces un cadena de Markov estacionaria para todos $n$ el lanzamiento $X_{n+1}$ depende únicamente de $X_n$ . Puedo codificarlo en la siguiente matriz:
$$P:= \left(\begin{matrix} 0 & 1/5 & 1/5 & 1/5 & 1/5 & 1/5 \\ 1/5 & 0 & 1/5 & 1/5 & 1/5 & 1/5 \\ 1/5 & 1/5 & 0 & 1/5 & 1/5 & 1/5 \\ 1/5 & 1/5 & 1/5 & 0 & 1/5 & 1/5 \\ 1/5 & 1/5 & 1/5 & 1/5 & 0 & 1/5 \\ 1/5 & 1/5 & 1/5 & 1/5 & 1/5 & 0 \end{matrix}\right)$$
El coeficiente $P_{ij}$ es la probabilidad de que, dado que el dado está actualmente en $i$ la siguiente tirada da $j$ . Así que $P_{ii} = 0$ para todos $i$ y $P_{ij} = 1/5$ de lo contrario.
Esta cadena de Markov es de estado finito (hay seis estados posibles), transitiva (partiendo de cualquier estado $i$ Puedo llegar a cualquier estado $j$ en dos pasos), y aperiódica (dados dos estados cualesquiera $i$ y $j$ , Puedo ir de $i$ a $j$ en $n$ pasos, para todos $n \geq 2$ - en otras palabras, si me das dos posibles resultados del dado, puedo ver estos posibles resultados $n$ lanza aparte, siempre que $n \geq 2).
Sea $f : \{1, \ldots, 6\} \to \mathbb{R}$ ser una observación. Entonces la secuencia $(f(X_n))_{n \geq 0}$ sigue estando idénticamente distribuida (ya que el $X_n$ están idénticamente distribuidas), pero estas variables aleatorias ya no son independientes. Conociendo $f(X_n)$ tiende a restringir severamente $f(X_{n+1})$ : si $f$ es inyectiva, entonces $f(X_{n+1}) \neq f(X_n)$ . Sin embargo, lo que nos salvará es que la dependencia decae muy rápidamente: conociendo $f(X_n)$ ofrece mucha información sobre $f(X_{n+1})$ pero muy poco sobre, digamos, $f(X_{n+10})$ . Y esta influencia decae exponencialmente rápido. En otras palabras, si el primer lanzamiento es $1$ , se puede decir con seguridad que el segundo lanzamiento no será $1$ pero no hay mucho que se pueda decir en el décimo o vigésimo lanzamiento.
Dado un observable $f$ , tenga en cuenta que todavía tenemos:
$$\mathbb{E} (S_N f) = \mathbb{E} \left(\sum_{k=0}^{N-1} f(X_k)\right) = N\mathbb{E} \left(f(X_0)\right),$$
porque este argumento sólo utiliza la estacionariedad del proceso. También seguimos teniendo un ley de los grandes números en distribución,
$$\lim_{N \to + \infty} \frac{S_N f}{N} =\mathbb{E} \left(f(X_0)\right).$$
Así que la ley del gran número sigue siendo tan simple, y es una consecuencia de Teorema de Birkhoff y la transitividad de la cadena de Markov. Ahora, también tenemos una teorema central del límite pero es más complicado. En efecto,
$$\lim_{N \to + \infty} \frac{S_N f-N\mathbb{E} \left(f(X_0)\right)}{\sqrt{N}} = \sigma_{GK} (f) \mathcal{N},$$
donde la convergencia está en la distribución, $\mathcal{N}$ es una gaussiana centrada estándar, $\overline{f} = f-\mathbb{E} (f)$ y:
$$\sigma_{GK} (f)^2 = \mathbb{E} (\overline{f}^2) + 2 \sum_{n=1}^{+ \infty} \mathbb{E} (\overline{f} (X_0) \overline{f}(X_n)).$$
el principal cambio es la fórmula de la varianza, que viene dada por la fórmula de Green-Kubo.
Ahora, ¿cómo computamos esta cosa? Un observable $f$ es esencialmente lo mismo que un elemento de $\mathbb{R}^6$ por ejemplo, $1_{x=4} = (0, 0, 0, 0, 1, 0)$ . Ahora se puede demostrar que, para cualquier función $f$ y $g$ ,
$$\mathbb{E} (f (X_0) g(X_n)) = \mathbb{E} (f (X_0) (P^n) g (X_0)) = \frac{1}{6} \sum_{k=1}^6 f(k) (P^n) g (k),$$
y gracias, $P^n$ es fácil de calcular. Si escribimos $A := P+I/5$ el $6 \times 6$ matriz cuyos coeficientes son todos $1/5$ entonces $A^k = (6/5)^{k-1} A$ para $k \geq 1$ para que..:
$$P^n = \left( A-\frac{I}{5} \right)^n = \sum_{k=0}^n \binom{n}{k} A^k \left( - \frac{1}{5} \right)^{n-k} = \frac{5}{6} \sum_{k=0}^n \binom{n}{k} \left(\frac{6}{5} \right)^k \left( - \frac{1}{5} \right)^{n-k} A - \frac{5}{6}\left( - \frac{1}{5} \right)^n A+ \left( - \frac{1}{5} \right)^n I = A - \frac{5}{6}\left( - \frac{1}{5} \right)^n A+ \left( - \frac{1}{5} \right)^n I.$$
Además, si $\mathbb{E} (f (X_0)) = 0$ entonces $Af = 0$ . Este es el caso de $\overline{f}$ . Por lo tanto,
$$P^n \overline{f} = \left( - \frac{1}{5} \right)^n \overline {f},$$
para que:
$$\sigma_{GK} (f)^2 = \mathbb{E} (\overline{f}^2) + 2 \sum_{n=1}^{+ \infty} \mathbb{E} (\overline{f} (X_0) (P^n \overline{f})(X_0)) = \mathbb{E} (\overline{f}^2) + 2 \sum_{n=1}^{+ \infty} \left( - \frac{1}{5} \right)^n \mathbb{E} (\overline{f}^2) = \left( 1+2 \sum_{n=1}^{+ \infty} \left( - \frac{1}{5} \right)^n\right) \mathbb{E} (\overline{f}^2) = \frac{2}{3} \sigma (f)^2.$$
Por ejemplo, si $f(x) = 1_{x=4}$ , obtenemos:
$$\lim_{N \to + \infty} \frac{S_N f}{N} = \frac{1}{6},$$
así que más o menos $1/6$ de los lanzamientos producen un $4$ y:
$$\lim_{N \to + \infty} \frac{S_N f-N/6}{\sqrt{N}} = \frac{\sqrt{10}}{6 \sqrt{3}} \mathcal{N},$$
que nos dice, por ejemplo, que el número de $4$ con probabilidad $0.95$ estará en el intervalo $[N/6-\sqrt{10N}/(3\sqrt{3}), N/6+\sqrt{10N}/(3\sqrt{3})]$ . Para $N = 1000$ lanza, este es el intervalo $[147,186]$ .
Lo que ocurre es que, si $f(X_n)$ es grande, entonces como $X_{n+1} \neq X_n$ , $f(X_{n+1})$ tiende a ser menor. Los incrementos grandes van inmediatamente seguidos de incrementos más pequeños, y a los incrementos pequeños les siguen inmediatamente incrementos mayores. Este fenómeno tiende a reducir la dispersión de $S_N f$ lo que explica que los resultados sean ligeramente más concentrados con el dado mágico que con un dado estándar.
5 votos
¿Qué escenario?
0 votos
Cuando dice "nunca tira el mismo número continuamente", ¿quiere decir que dos tiradas consecutivas cualesquiera dan números diferentes?
3 votos
La distribución del dado mágico (si no tiene pasado) no diferirá de la de un dado no mágico. La verdadera diferencia aparece si se lanza el dado más de una vez. También hay una diferencia entre un dado mágico que nunca ha sido lanzado y uno con pasado.
0 votos
Curiosamente, el tercera rollo es un poco más probable que igualar el primer rollo ...
0 votos
@D.Thomine perdón ¿tiene sentido ahora?
0 votos
@r8 sí exactamente
0 votos
La PDF / expectativa / varianza se definen para variables aleatorias. ¿Sobre cuál desea tener información?
0 votos
@D.Thomine me gustaría saber cuantos números del 1 al 6 tendremos después de esas bajadas.
7 votos
"Las respuestas actuales no contienen suficientes detalles". ¿En serio? ¿Qué es lo que falta?
0 votos
Véase también la solución exacta unidimensional Modelo Potts