8 votos

Gusano y el valor esperado de Apple

Una manzana se encuentra en el vértice $A$ del pentágono $ABCDE$, y un gusano es ubicado a dos vértices de distancia, en $C$. Cada día el gusano se arrastra con la probabilidad igual a uno de los dos vértices adyacentes. Así, después de una el día en que el gusano está en el vértice $B$ o $D$, cada una con una probabilidad de $1/2$ . Después de dos días, el gusano podría estar de vuelta en $C$ nuevo, porque no tiene memoria de posiciones anteriores. Cuando se alcanza el vértice $A$, se detiene a cenar.

(a) ¿Cuál es la media del número de días hasta la cena?

(b) sea p la probabilidad de que el número de días es $100$ o más. ¿Qué Markov Desigualdad decir acerca de $p$?

Para (un), vamos a $X$ ser la variable aleatoria definida por el número de días hasta la cena. Por lo $$ P(X = 0) = 0 \\ P(X=1) = 0 \\ P(X=2) = \frac{1}{\binom{5}{2}} \\ \vdots$$

¿Cuál sería la distribución general?

Para (b), si sabemos (a), entonces sabemos que $$P(X \geq 100) \leq \frac{E(X)}{100}$$

6voto

Aaron Puntos 36

En la excelente respuesta por Glen_b, muestra que se puede calcular el valor esperado analíticamente mediante un sencillo sistema de ecuaciones lineales. Siguiendo este método analítico se puede determinar que el número esperado de movimientos a la de apple es de seis. Otro excelente respuesta por whuber muestra cómo derivar la función de masa de probabilidad para el proceso después de un determinado número de movimientos, y este método también puede ser utilizado para obtener una solución analítica para el valor esperado. Si a usted le gustaría ver algunos más conocimiento sobre este problema, usted debe leer unos papeles en la circular paseo aleatorio (véase por ejemplo, Stephens 1963)

Para dar una visión alternativa del problema, voy a mostrar cómo se puede obtener el mismo resultado utilizando el método de la fuerza bruta de sólo el cálculo de la cadena de Markov mediante estadística informática. Este método es inferior a examen analítico en muchos aspectos, pero tiene la ventaja de que le permite lidiar con el problema sin necesidad de ninguno de los principales matemáticos de la visión.


La fuerza bruta método de cálculo: Tomar de los estados en orden a $A,B,C,D,E$, su cadena de Markov transiciones de acuerdo a la siguiente matriz de transición:

$$\mathbf{P} = \begin{bmatrix} 1 & 0 & 0 & 0 & 0 \\[6pt] \tfrac{1}{2} & 0 & \tfrac{1}{2} & 0 & 0 \\[6pt] 0 & \tfrac{1}{2} & 0 & \tfrac{1}{2} & 0 \\[6pt] 0 & 0 & \tfrac{1}{2} & 0 & \tfrac{1}{2} \\[6pt] \tfrac{1}{2} & 0 & 0 & \tfrac{1}{2} & 0 \\[6pt] \end{bmatrix}$$

The first state is the absorbing state $$ where the worm is at the apple. Let $T_C$ be the number of moves until the worm gets to the apple from state $C$. Then for all $n \in \mathbb{N}$ the probability that the worm is at the apple after this number of moves is $\mathbb{P}(T_C \leqslant n) = \{ \mathbf{P}^n \}_{C,a}$ and so the expected number of moves to get to the apple from this state is:

$$\mathbb{E}(T_C) = \sum_{n=0}^\infty \mathbb{P}(T_C > n) = \sum_{n=0}^\infty (1-\{ \mathbf{P}^n \}_{C,A}).$$

The terms in the sum decrease exponentially for large $$ n, por lo que podemos calcular el valor esperado para cualquier nivel de precisión deseado mediante el truncamiento de la suma de un número finito de términos. (El decaimiento exponencial de los términos asegura que se puede limitar el tamaño de la quita de los términos a estar por debajo de un nivel deseado.) En la práctica, es fácil tomar un gran número de términos hasta que el tamaño de los términos restantes es extremadamente pequeño.


La programación de este en R: Usted puede programar esta función en R utilizando el código de abajo. Este código ha sido vectorizada para generar una matriz de potencias de la matriz de transición de una secuencia finita de movimientos. También generamos una parcela de la probabilidad de que la manzana no se ha alcanzado, mostrando que esta disminuye de manera exponencial.

#Create function to give n-step transition matrix for n = 1,...,N
#N is the last value of n
PROB <- function(N) { P <- matrix(c(1, 0, 0, 0, 0, 
                                    1/2, 0, 1/2, 0, 0, 
                                    0, 1/2, 0, 1/2, 0,
                                    0, 0, 1/2, 0, 1/2,
                                    1/2, 0, 0, 1/2, 0),
                                  nrow = 5, ncol = 5, 
                                  byrow = TRUE);
                      PPP <- array(0, dim = c(5,5,N));
                      PPP[,,1] <- P;
                      for (n in 2:N) { PPP[,,n] <- PPP[,,n-1] %*% P; } 
                      PPP }

#Calculate probabilities of reaching apple for n = 1,...,100
N  <- 100;
DF <- data.frame(Probability = PROB(N)[3,1,], Moves = 1:N);

#Plot probability of not having reached apple
library(ggplot2);
FIGURE <- ggplot(DF, aes(x = Moves, y = 1-Probability)) +
          geom_point() +
          scale_y_log10(breaks = scales::trans_breaks("log10", function(x) 10^x),
                        labels = scales::trans_format("log10", 
                                 scales::math_format(10^.x))) +
          ggtitle('Probability that worm has not reached apple') +
          xlab('Number of Moves') + ylab('Probability');
FIGURE;

#Calculate expected number of moves to get to apple
#Calculation truncates the infinite sum at N = 100
#We add one to represent the term for n = 0
EXP <- 1 + sum(1-DF$Probability);
EXP;

[1] 6

Como se puede ver a partir de este cálculo, se espera que el número de movimientos para llegar a la manzana es de seis. Este cálculo fue extremadamente rápido con la anterior vectorizada código para la cadena de Markov.

enter image description here

5voto

AdamSane Puntos 1825

Sólo quiero ilustrar una manera simple de mirar en la parte (a) sin ir a través de toda la cadena de Markov de rutina. Hay dos clases de estados preocuparse: de ser un paso y dos pasos de distancia (C y D son idénticos en términos de espera de los pasos hasta llegar a la A, y B y E son idénticos). Vamos a "$S_B$" representa el número de pasos que hay desde el vértice $B$ y así sucesivamente.

$E(S_C) = 1+\frac12[E(S_B)+E(S_D)] = 1+ \frac12[E(S_B)+E(S_C)]$

Del mismo modo escriba una ecuación para la expectativa de $E(S_B)$.

Sustituir el segundo en la primera (y, por comodidad, escribir $c$$E(S_C)$) y se obtiene una solución para $c$ en un par de líneas.

3voto

jldugger Puntos 7490

El problema

Esta cadena de Markov de tres estados, que se distingue por el hecho de si el gusano es $0,$ $1,$ o $2$ espacios lejos de $C.$ Deje $X_i$ ser la variable aleatoria dando el número de pasos que el gusano se necesita para llegar a $C$ de estado $i\in\{0,1,2\}.$ Su probabilidad de generación de funciones de una cómoda algebraicas manera de codificar las probabilidades de estas variables. No es necesario preocuparse de la analítica de temas como la convergencia: sólo verlas como poder formal de la serie en un símbolo de $t$ dada por

$$f_i(t) = \Pr(X_i=0) + \Pr(X_i=1)t^1 + \Pr(X_i=2)t^2 + \cdots + \Pr(X_i=n)t^n + \cdots$$

Desde $\Pr(X_0=0)=1,$ es trivial que $f_0(t)=1.$ necesitamos encontrar $f_2.$

Análisis y solución de

De estado $1,$ el gusano tiene las mismas posibilidades de $1/2$ de moverse de nuevo al estado $2$ o llegar a $C$. La contabilidad para tomar este paso agrega $1$ a todas las facultades de $t$, equivalente a multiplicar el pgf por $t$, dando

$$f_1 = \frac{1}{2}t\left(f_2 + f_0\right).$$

Del mismo modo, desde el estado $2$ el gusano tiene iguales probabilidades de permanecer en estado de $2$ o llegar a un estado de $1,$ dónde

$$f_2 = \frac{1}{2}t\left(f_2 + f_1\right).$$

La aparición de $t/2$ sugiere que nuestro trabajo será facilitado por la introducción de la variable $x=t/2,$ dando

$$f_1(x) = x(f_2(x) + f_0(x));\quad f_2(x) = x(f_2(x) + f_1(x)).$$

La sustitución de la primera a la segunda y recordando $f_0=1$ da

$$f_2(x) = x(f_2(x) + x(f_2(x) + 1))\tag{*}$$

cuya única solución es

$$f_2(x) = \frac{x^2}{1 - x - x^2}.\tag{**}$$

Me puso de relieve la ecuación de $(*)$ a destacar su simplicidad básica y su similitud formal a la ecuación podríamos obtener al analizar sólo los valores esperados $E[X_i]:$ en efecto, para la misma cantidad de trabajo necesario para encontrar este número, se obtiene la distribución completa.

Implicaciones y simplificación

De manera equivalente, cuando $(*)$ está escrito término a término y los poderes de la $t$ coinciden que afirma que para $n\ge 4,$

$$2^n\Pr(X_2=n) = 2^{n-1}\Pr(X_2=n-1) + 2^{n-2}\Pr(X_2=n-2).$$

Esta es la recurrencia de la famosa secuencia de números de Fibonacci

$$(F_n) = (1,1,2,3,5,8,13,21,34,55,89,144,\ldots)$$

(índice de $n=0$). La solución coincidente $(**)$ es esta secuencia cambiado por dos lugares (porque no hay ninguna probabilidad de que $X_2=0$ o $X_2=1$ y es fácil comprobar que $2^2\Pr(X_2=2)=1=2^3\Pr(X_2=3)$).

En consecuencia

$$\Pr(X_2 = n) = 2^{-n-2}F_{n-2}.$$

Más específicamente,

$$\eqalign{ f_2(t) y= 2^{-2}F_0t^2 + 2^{-3}F_1 t^3 + 2^{-4} F_2 t^4 + \cdots \\ &= \frac{1}{4}t^2 + \frac{1}{8}t^3 + \frac{2}{16}t^4 + \frac{3}{32}t^5 + \frac{5}{64}t^6 + \frac{8}{128}t^7 +\frac{13}{256}t^8 + \cdots. }$$


La expectativa de $X_2$ es fácil de encontrar mediante la evaluación de la derivada $f^\prime$ y la sustitución de $t=1,$ debido a (la diferenciación de los poderes de la $t$ término por término) esto le da la fórmula

$$f^\prime(1) = \Pr(X_2=0)(0) + \Pr(X_2=1)(1)1^0 + \cdots + \Pr(X_2=n)(n)1^{n-1} + \cdots$$

que, como la suma de las probabilidades de veces que los valores de $X_2,$ es, precisamente, la definición de $E[X_2].$ Tomando la derivada usando $(**)$ produce una fórmula simple para la expectativa.


Algunos breves comentarios

Mediante la expansión de $(**)$ parcial como fracciones, $f_2$ puede ser escrito como la suma de dos series geométricas. Esta muestra de inmediato las probabilidades de $\Pr(X_2=n)$ disminuirá exponencialmente. También produce una forma cerrada para la cola probabilidades de $\Pr(X_2 \gt n).$ Mediante que, podemos calcular que el $\Pr(X_2 \ge 100)$ es un poco menos de $10^{-9}.$

Finalmente, estas fórmulas implican la Proporción áurea $\phi = (1 + \sqrt{5})/2.$ Este número es la longitud de una cuerda de un pentágono regular (de la unidad de lado), produciendo una conexión sorprendente entre puramente combinatoria de la cadena de Markov en el pentágono (el que "sabe" nada acerca de la geometría Euclidiana) y la geometría de un pentágono regular en el plano Euclidiano.

1voto

soakley Puntos 1968

Para la media del número de días hasta la cena, condición en el paso que han dado en el primer día. Deje $X$ el número de días hasta que el gusano obtiene la manzana. Deje $F$ ser el primer paso.

Entonces tenemos

$$E[X]=E[X|F=B] \ [P(F=B)]+E[X|F=D] \ P[F=D]$$

Si el primer paso es $B,$, entonces el gusano obtiene la manzana en el día 2 con probabilidad uno la mitad, o se vuelve a vértice $C$ con probabilidad uno la mitad y se comienza de nuevo. Podemos escribir esto como

$$E[X|F=B]=2 \left( \frac{1}{2} \right) + \left(2+E[X] \right) \left( \frac{1}{2} \right)=2+\frac{E[X]}{2}$$

Si el primer paso es $D,$, por simetría esto es lo mismo que estar en el vértice $C$, salvo que el gusano se ha dado un solo paso para

$$E[X|F=D]=1+E[X]$$

Poniendo todo junto, obtenemos

$$E[X] = \left( 2+\frac{E[X]}{2} \right)\left( \frac{1}{2} \right) + \left( 1 + E[X] \right)\left( \frac{1}{2} \right) $$

La solución para $E[X]$ rendimientos

$$E[X] = 6$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X