Deje $X_1,X_2,\dots$ son independientes de r.v. tal que $P(X_i=1)=p=1-P(X_i=\epsilon_i)$, $0<\epsilon_i<1$
$$Y=X_1+\frac{X_1}{X_2+\frac{X_2}{X_3+\frac{X_3}{X_4+\dots}}}$$
1.¿Cuál es la distribución de $Y$?
2.¿Cuál es la función característica de a $Y$?
[Si usted ha leído hasta esta línea debe ir a "Añadido" de la parte al final de este post. Comenzando con $X_i$'s son i.yo.d. sería menos complicado]
No sé cómo encontrar este tipo de problema, así que tuve que publicar. Cualquier idea o un enlace al sitio web sería de gran ayuda.
Cuando pensaba en ello fue muy fácil para $X_i$'s son iguales, es decir $$Y^*=X_1+\frac{X_1}{X_1+\frac{X_1}{X_1+\frac{X_1}{X_1+\dots}}}$$
En este caso,$Y^*=\frac{X_1+\sqrt{X^2_1+4X_1}}{2}$, que no es muy interesante.
Al final creo que va a condición de necesidad en $\epsilon_1,\epsilon_2,\dots$ $Y$ser una variable aleatoria. Pero estos son muy trivial observación.
¿Qué podemos decir acerca de 1 y 2, y ¿qué podemos decir de más de 1 y 2 acerca de la $Y$?
Añadió:
Como @Henry dijo que podemos pensar de menos complicado que la versión:
Deje $X_1,X_2,\dots$ son yo.yo.d. r.v. tal que $P(X_1=1)=p=1-P(X_1=\epsilon)$, $0<\epsilon<1$
$$Y=X_1+\frac{X_1}{X_2+\frac{X_2}{X_3+\frac{X_3}{X_4+\dots}}}$$
Aquí se puede escribir de la siguiente manera: $Y=Y_1$. $Y_1=X_1(1+\frac{1}{Y_2})$, $Y_2=X_2(1+\frac{1}{Y_3}),\dots$
Puede verse fácilmente que el $Y_i$'s son idénticos, pero no independiente. Por lo tanto, primero debemos encontrar la pregunta 1, 2 para este caso.
Añadió:
Alguna referencia que he encontrado aquí en Mathoverflow. Esto puede ayudar.
Respuesta
¿Demasiados anuncios?Esto no es una solución completa, pero espero que te dará algo de información útil sobre el problema. Voy a trabajar en el caso de que el $X_i$ son iid; es decir, $\epsilon_i=\epsilon$ todos los $i$.
Primero de todos, dejando de lado la probabilidad de $p$ por el momento, tenga en cuenta que esta pregunta es realmente acerca de la composición de los dos mapas de $M_1: t\mapsto1+\frac1t$$M_\epsilon: t\mapsto\epsilon(1+\frac1t)$. Desde $\frac1t$ es la disminución en el $t\gt 0$, por lo que son ambos de los mapas de $M_1, M_\epsilon$; esto significa que los posibles valores mínimo y máximo de satisfacer $t_\min = M_\epsilon(t_\max)$$t_\max=M_1(t_\min)$. Pero estas ecuaciones junto rendimiento de ecuaciones cuadráticas para$t_\min$$t_\max$, con soluciones de $t_\min=\frac12(2\epsilon-1+\sqrt{4\epsilon^2+1})$$t_\max = \frac1{2\epsilon}(1+\sqrt{4\epsilon^2+1})$; por lo tanto, el máximo dominio de la distribución es $[\frac12(2\epsilon-1+\sqrt{4\epsilon^2+1}),\frac1{2\epsilon}(1+\sqrt{4\epsilon^2+1})]$. Por ejemplo, cuando se $\epsilon=\frac12$, el intervalo máximo de apoyo es de $[\frac{\sqrt{2}}2,1+\sqrt{2}]$.
Teniendo en cuenta esto, podemos ver que el rango del mapa de $M_1$ en este dominio es $[1+\frac{1}{2\epsilon}(\sqrt{4\epsilon^2+1}-1),\frac1{2\epsilon}(1+\sqrt{4\epsilon^2+1})]$, y el rango del mapa $M_\epsilon$ es exactamente $\epsilon$ veces esta, $[\frac12(2\epsilon-1+\sqrt{4\epsilon^2+1}),\frac12(1+\sqrt{4\epsilon^2+1})]$; por ejemplo, cuando se $\epsilon=\frac12$, el rango de $M_1$ $[\sqrt{2},1+\sqrt{2}]$ y el rango de $M_\epsilon$$[\frac{\sqrt2}{2},\frac12(1+\sqrt{2})]$.
Ahora, observe que en este ejemplo los rangos de $M_1$ $M_\epsilon$ son disjuntas: $\frac12(1+\sqrt{2})\lt \sqrt{2}$, por lo que no hay superposición. De hecho, esto es cierto en general: tenemos $\frac12(1+\sqrt{4\epsilon^2+1})\lt1+\frac{1}{2\epsilon}(\sqrt{4\epsilon^2+1}-1)$ todos los $0\lt\epsilon\lt 1$, por lo que los mapas de $M_1$ $M_\epsilon$ son distintos en sus mutuas de dominio. Esto implica que el apoyo de la distribución es en realidad un conjunto de Cantor: totalmente desconectado, perfecto, nada densa, etc. (Con un montón de álgebra, que probablemente podría encontrar la dimensión de Hausdorff, pero no confío en mi álgebra o mi transcripción de habilidades y de Alfa suficiente para conseguir que el otro a la derecha.)
Puesto que la estructura del dominio es tan complicado, una descripción explícita de cualquier medida de probabilidad en el dominio va a ser bastante desordenado. En su caso, hay una complicación adicional: debido a que los mapas son 'inversive' (disminución) por cualquier fija $p$ la probabilidad no es ni monótonamente creciente ni monótonamente decreciente en (no trivial) superposición de cualquier intervalo con el dominio. Por ejemplo, dejando $D$ ser el dominio, podemos ver que el orden(s) de iteración de los dos mapas de $M_i$ que se aplica a este dominio son $\langle M_\epsilon(D)\lt M_1(D)\rangle$; $\langle M_\epsilon(M_1(D))\lt M_\epsilon(M_\epsilon(D)\lt M_1(M_1(D)\lt M_1(M_\epsilon(D)\rangle$; $\langle M_\epsilon(M_1(M_\epsilon(D)))$ $\lt M_\epsilon(M_1(M_1(D)))$ $\lt M_\epsilon(M_\epsilon(M_\epsilon(D)))$ $\lt M_\epsilon(M_\epsilon(M_1(D)))$ $\lt M_1(M_1(M_\epsilon(D)))$ $\lt M_1(M_1(M_1(D)))$ $\lt M_1(M_\epsilon(M_\epsilon(D)))$ $\lt M_1(M_\epsilon(M_1(D)))\rangle$; etc. Por lo tanto, las probabilidades de que $Y$ se encuentra en cada uno de los de tercer orden de los intervalos (que aparece por el aumento de $Y$)$\langle p^2(1-p), p(1-p)^2,p^3, p^2(1-p),p(1-p)^2,(1-p)^3, p^2(1-p), p(1-p)^2\rangle$; por ejemplo, dejando $p=\frac13$, estas son las $\frac1{27}\langle2,4,1,2,4,8,2,4\rangle$. Estas secuencias tienen una estrecha relación con el dragón de las curvas, y el problema como un todo está muy estrechamente acoplados (ponderado) de los sistemas de función iterada; me gustaría animar a buscar más información sobre estos.
(También, es, posiblemente, la pena señalar que en el 'límite' caso donde $\epsilon =0$ — es decir, el $X_i$ son $0$ o $1$ — el apoyo consiste exactamente el convergents a $\phi=\frac12(1+\sqrt{5})$, y la probabilidad de éxito de la $n$th convergente es geométrica, $p^n(1-p)$. Esto es debido a que los valores de $X_i$ después de que el primer cero es irrelevante.)