4 votos

Suma de variables aleatorias con $x_{i+1}<x_i$

Que $x_{i+1}$ sea una variable de aleatoria distribuida uniforme en $[0,x_i]$, $x_0=1$.

¿Convergen la suma y cuál es su valor esperado?
$$\sum_{n=1}^\infty x_n$$

Existe una función $f(n)>1$ tal que $\lim{n->\infty} f(n)=1$el % y la suma
¿$$\sum
{n=1}^\infty n^{-f(n)}$ $ converge?

7voto

Mingo Puntos 126

Pista para la primera pregunta. No sólo que la suma converge y tiene finita expectativa, su distribución es bien conocido: Dickman de distribución.

Una colección de hechos en el generalizado Dickman distribución basada parcialmente en el papel de "Random mínimo dirigida árboles de expansión y Dickman-tipo de distribuciones" de Mathew D. Penrose y Andrew R. Wade [Fuente: Adv. en Appl. El Probab. Volumen 36, Número 3 (2004), 691-714.]

Fijo $\theta > 0$ (en el caso de $\theta = 1$ corresponde a la pregunta en cuestión), definir una variable aleatoria $X$ por $$ X = U_1^{1/\theta } + (U_1 U_2 )^{1/\theta } + (U_1 U_2 U_3 )^{1/\theta } + \cdots , $$ donde $U_1,U_2,\ldots$ es una secuencia de independiente uniformes$(0,1)$ variables. El hecho de que el infinito al azar de la serie converge casi seguramente se sigue del teorema de convergencia monótona (nota de que los términos son no negativos, y considerar la expectativa). La variable aleatoria $X$ es igual a la distribución a $U^{1/\theta } (1+X)$ donde $U$ es uniforme a lo$(0,1)$ e independiente de $X$. La distribución de $X$ es conocida como la generalizada Dickman de distribución con el parámetro $\theta$ (el ordinario caso de ser $\theta=1$), y se denota por GD$(\theta)$.

La variable aleatoria $X$ puede ser representado (en la ley) como $X = \sum\nolimits_{n = 1}^\infty {Y_n }$ donde $Y_1 > Y_2 > \cdots$ son puntos de Poisson punto del proceso en $(0,1)$ con una intensidad de medida $(\theta/x)\,{\rm d}x$. Equivalentemente, considere la posibilidad de un aumento de L\'evy proceso (subordinator) $X=\{X(t):t \geq 0\}$ (es decir, $X$ es un proceso creciente fijo independiente de incrementos, a partir de a $0$) con L\'evy medida $\nu({\rm d}x) = (\theta/x)\,{\rm d}x$. Es una muestra de las rutas con infinidad de saltos en el intervalo de tiempo $[s,t]$, para cualquier $0 \leq s < t$. Específicamente, el número de saltos en el intervalo de tiempo $[s,t]$ con tamaño en $B \subset (0,1)$ se distribuye Poisson con una media de $(t-s)\nu(B)$ (tenga en cuenta que $\nu((0,1)) = \int_0^1 {(\theta /x)\,{\rm d}x} = \infty$; de ahí que el infinito número de saltos en el tiempo finito de intervalos). La distribución de la variable aleatoria $X(1)$ es GD$(\theta)$. Para $\theta = 1$, esto corresponde a la pregunta en cuestión de la siguiente manera. Un ejemplo de ruta del proceso de $X$ en el intervalo de tiempo $[0,1]$ puede ser realizado de la siguiente manera. Con $U_1,U_2,\ldots$ independiente uniformes$(0,1)$ variables, deje que el tamaño de la más grande de saltar ser $V_1=U_1$. El correspondiente salto de tiempo se distribuye uniformemente en la unidad de intervalo de tiempo. Ahora bien, dado $V_1 = v_1$, el tamaño de la segunda mayor salto, $V_2$, se distribuye de la ${\rm uniform}(0,v_1)$, que es igual a la distribución a $v_1 U_2$. Como siempre, el correspondiente salto de tiempo es independiente y distribuidos uniformemente sobre la unidad de intervalo de tiempo. Siguiente, dado $V_2 = v_2$, el tamaño de la tercera mayor salto, $V_3$, se distribuye de la ${\rm uniform}(0,v_2)$, que es igual a la distribución a $v_2 U_3$. Continuar de esta manera a la conclusión de que la $X(1)$ es igual a la distribución a $U_1+U_1U_2+U_1U_2U_3+ \cdots$.

El hecho de que la GD$(\theta)$ distribución corresponde a una distribución marginal de L\'evy proceso implica que es infinitamente divisible. De hecho, si $X_1$ $X_2$ son independientes GD$(\theta_i)$, $i=1,2$, variables aleatorias, a continuación, $X_1+X_2$ es un GD$(\theta_1 + \theta_2)$ variable aleatoria. Por otra parte, la transformada de Laplace de $X \sim {\rm GD}(\theta)$ está dado por $$ {\rm E}[e^{ - uX} ] = \exp \bigg(\int_0^1 {e^{ - ux} - 1})\nu ({\rm d}x)\bigg) = \exp \bigg(\theta \int_0^1 {\frac{{e^{ - ux} - 1}}{x}\,{\rm d}x \bigg)} , \;\; u \geq 0. $$ El $k$th cumulant de $X$$\kappa_k = \theta/k$. Así, en particular, ${\rm E}(X)=\kappa_1 = \theta$${\rm Var}(X)=\kappa_2 = \theta/2$. También hay un elegante fórmula recursiva para la $n$th momento.

La función de distribución de $X$ es bastante complicado, y puede ser expresada como una suma de integrales múltiples (para ser elaborado en otra respuesta). En particular, la función de densidad de probabilidad para el caso de $\theta = 1$ está dado por $e^{-\gamma}\rho(x)$ donde $\rho$ es el conocido Dickman función.

5voto

Oli Puntos 89

Para la segunda pregunta, es razonable ver si va a funcionar el ejemplo estándar de una suma poco a poco convergente. Así que poner %#% $ #%

Da $$n^{-f(n)}=\frac{1}{n\log^2n}$ $

Este $$f(n)=\frac{\log(n\log^2n)}{\log n}$ se comporta como usted quería que. (Necesitamos cambiar $f$ un poco al principio para que sea bien definida y $f$.)

0voto

Did Puntos 1

Pista para la primera pregunta: podría intentar calcular $E(xi)$; para ello podría comenzar por informática $E(x{i+1}|x_i)$ luego utilizar lo que algunos llaman la torre propiedad de expectativas condicionales.

Pista para la segunda pregunta: si logras obtener $n^{-f(n)}$ el término general de una serie que converge a, por ejemplo $n^{-f(n)}=1/(n(\log n)^2)$, se podría hacer; Luego, tendrías que comprobar que $f(n)\to1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X