Descripción:
Sea $X_n = (X_{1,n},X_{2,n})^T \in \mathbb{Z}^2 = \mathbb{Z} \times \mathbb{Z}$ sea el vector de posiciones del proceso en el momento $t=0,1,2,3,\ldots$ . Este espacio de estados no es más que todos los pares o parejas de números enteros. El cuadrado y los símbolos de los tiempos denotan el producto cartesiano. Puedes buscarlo en google, pero la idea es que son todos los pares posibles.
El primero será el " $x$ ". La segunda será la coordenada " $y$ " coordenada. Así que sabemos $X_0 = (0,0)^T$ y hay un cuarto de posibilidades de $X_1 = (1,0)^T$ etc.
Su modelo puede escribirse como $$ X_n = X_{n-1} + W_n, $$ donde $W_n = (W_{1,n},W_{2,n})^T \in \{(0,1)^T, (0,-1)^T, (1,0)^T, (-1,0)^T\}$ es el salto, la innovación o la decisión que desplaza la ficha por el tablero.
Siguiente definición $Y_n = |X_{1,n}| + |X_{2,n}|$ la suma de los valores absolutos de cada componente. Es la "distancia Manhattan" o "distancia Taxicab".
Cadenas marginales:
Observa que podríamos escribir lo anterior como dos ecuaciones $$ X_{1,n} = X_{1,n-1} + W_{1,n} $$ y $$ X_{2,n} = X_{2,n-1} + W_{2,n} $$ donde los términos de ruido pueden tomar valores $(-1,0,1)$ con probabilidades $.25, .5$ y $.25$ respectivamente. Pero están correlacionados: si sabes que uno de ellos es $1$ entonces el otro tiene que ser $0$ por ejemplo.
Fórmula recursiva para la distancia esperada:
- El valor esperado de $Y_n$ es \begin{align*} E[Y_n| &= E[|X_{1,n}| + |X_{2,n}|] \\ &= E[|X_{1,n-1} + W_{1,n}|+ |X_{2,n-1}+ W_{2,n}|] \\ &= E\left\{ E[|X_{1,n-1} + W_{1,n}|+ |X_{2,n-1}+ W_{2,n}| {\large |} W_n = w_n ] \right\} && \text{ law of total expectation} \\ &= \frac{1}{4}E[|X_{1,n-1} + 1|+ |X_{2,n-1}|] + \frac{1}{4}E[|X_{1,n-1} - 1|+ |X_{2,n-1}|] + \frac{1}{4}E[|X_{1,n-1} |+ |X_{2,n-1}+1|] + \frac{1}{4}E[|X_{1,n-1} |+ |X_{2,n-1}-1|] \\ &= \frac{1}{4}E[|X_{1,n-1} + 1|]+ \frac{1}{4}E[ |X_{2,n-1}|] + \frac{1}{4}E[|X_{1,n-1} - 1|]+ \frac{1}{4}E[|X_{2,n-1}|] + \frac{1}{4}E[|X_{1,n-1} |]+ \frac{1}{4}E[|X_{2,n-1}+1|] + \frac{1}{4}E[|X_{1,n-1} |]+ \frac{1}{4}E[|X_{2,n-1}-1|] \\ &= \frac{1}{4}E[|X_{1,n-1} + 1|]+ \frac{1}{4}E[|X_{1,n-1} - 1|] + \frac{1}{4}E[|X_{2,n-1}+1|] + \frac{1}{4}E[|X_{2,n-1}-1|] + \frac{1}{2}E[Y_{n-1}] \\ &= \frac{1}{2}E[|X_{1,n-1} + 1|]+ \frac{1}{2}E[|X_{1,n-1} - 1|] + \frac{1}{2}E[Y_{n-1}] \\ &= E[|X_{1,n-1} + 1|] + \frac{1}{2}E[Y_{n-1}] \end{align*}
Añadir $1$ a una coordenada puede aumentar o reducir el valor absoluto, dependiendo de si es positivo, negativo o igual a $0$ . Así que queremos utilizar la ley de la expectativa total y condicionar el signo de $X_{1,n-1}$ .
De momento, me cuesta encontrar una expresión para $E[|X_{1,n-1} + 1|]$ . La variable aleatoria tiene soporte y probabilidades que dependen de $n$ . Mientras tanto, aquí hay algo de código R que utiliza el método Monte Carlo para encontrar la respuesta:
getRandomDistance <- function(n){
start <- c(0,0)
posit <- start
for(time in 1:n){
jump <- sample(list(c(-1,0), c(1,0), c(0,1), c(0,-1)), size = 1, prob = c(.25, .25, .25, .25))[[1]]
posit <- posit + jump
}
return(abs(posit[1]) + abs(posit[2]))
}
numTimes <- 10000
chainLength <- 101
mean(replicate(n = numTimes, expr = getRandomDistance(chainLength)))
0 votos
Bienvenido a Validación cruzada ¡! Tómese un momento para ver nuestra visita . Esto suena como si fuera un autoaprendizaje pregunta. En ese caso, añada la etiqueta a su pregunta y lea el apartado wiki para la etiqueta.