Loading [MathJax]/jax/element/mml/optable/Latin1Supplement.js

4 votos

Suma de variables aleatorias con xi+1<xi

Que xi+1 sea una variable de aleatoria distribuida uniforme en [0,xi], x0=1.

¿Convergen la suma y cuál es su valor esperado?
n=1xn

Existe una función f(n)>1 tal que $\lim{n->\infty} f(n)=1el % y la suma ¿$\sum{n=1}^\infty n^{-f(n)} converge?

7voto

Mingo Puntos 126

Pista para la primera pregunta. No sólo que la suma converge y tiene finita expectativa, su distribución es bien conocido: Dickman de distribución.

Una colección de hechos en el generalizado Dickman distribución basada parcialmente en el papel de "Random mínimo dirigida árboles de expansión y Dickman-tipo de distribuciones" de Mathew D. Penrose y Andrew R. Wade [Fuente: Adv. en Appl. El Probab. Volumen 36, Número 3 (2004), 691-714.]

Fijo \theta > 0 (en el caso de \theta = 1 corresponde a la pregunta en cuestión), definir una variable aleatoria X por X = U_1^{1/\theta } + (U_1 U_2 )^{1/\theta } + (U_1 U_2 U_3 )^{1/\theta } + \cdots , donde U_1,U_2,\ldots es una secuencia de independiente uniformes(0,1) variables. El hecho de que el infinito al azar de la serie converge casi seguramente se sigue del teorema de convergencia monótona (nota de que los términos son no negativos, y considerar la expectativa). La variable aleatoria X es igual a la distribución a U^{1/\theta } (1+X) donde U es uniforme a lo(0,1) e independiente de X. La distribución de X es conocida como la generalizada Dickman de distribución con el parámetro \theta (el ordinario caso de ser \theta=1), y se denota por GD(\theta).

La variable aleatoria X puede ser representado (en la ley) como X = \sum\nolimits_{n = 1}^\infty {Y_n } donde Y_1 > Y_2 > \cdots son puntos de Poisson punto del proceso en (0,1) con una intensidad de medida (\theta/x)\,{\rm d}x. Equivalentemente, considere la posibilidad de un aumento de L\'evy proceso (subordinator) X=\{X(t):t \geq 0\} (es decir, X es un proceso creciente fijo independiente de incrementos, a partir de a 0) con L\'evy medida \nu({\rm d}x) = (\theta/x)\,{\rm d}x. Es una muestra de las rutas con infinidad de saltos en el intervalo de tiempo [s,t], para cualquier 0 \leq s < t. Específicamente, el número de saltos en el intervalo de tiempo [s,t] con tamaño en B \subset (0,1) se distribuye Poisson con una media de (t-s)\nu(B) (tenga en cuenta que \nu((0,1)) = \int_0^1 {(\theta /x)\,{\rm d}x} = \infty; de ahí que el infinito número de saltos en el tiempo finito de intervalos). La distribución de la variable aleatoria X(1) es GD(\theta). Para \theta = 1, esto corresponde a la pregunta en cuestión de la siguiente manera. Un ejemplo de ruta del proceso de X en el intervalo de tiempo [0,1] puede ser realizado de la siguiente manera. Con U_1,U_2,\ldots independiente uniformes(0,1) variables, deje que el tamaño de la más grande de saltar ser V_1=U_1. El correspondiente salto de tiempo se distribuye uniformemente en la unidad de intervalo de tiempo. Ahora bien, dado V_1 = v_1, el tamaño de la segunda mayor salto, V_2, se distribuye de la {\rm uniform}(0,v_1), que es igual a la distribución a v_1 U_2. Como siempre, el correspondiente salto de tiempo es independiente y distribuidos uniformemente sobre la unidad de intervalo de tiempo. Siguiente, dado V_2 = v_2, el tamaño de la tercera mayor salto, V_3, se distribuye de la {\rm uniform}(0,v_2), que es igual a la distribución a v_2 U_3. Continuar de esta manera a la conclusión de que la X(1) es igual a la distribución a U_1+U_1U_2+U_1U_2U_3+ \cdots.

El hecho de que la GD(\theta) distribución corresponde a una distribución marginal de L\'evy proceso implica que es infinitamente divisible. De hecho, si X_1 X_2 son independientes GD(\theta_i), i=1,2, variables aleatorias, a continuación, X_1+X_2 es un GD(\theta_1 + \theta_2) variable aleatoria. Por otra parte, la transformada de Laplace de X \sim {\rm GD}(\theta) está dado por {\rm E}[e^{ - uX} ] = \exp \bigg(\int_0^1 {e^{ - ux} - 1})\nu ({\rm d}x)\bigg) = \exp \bigg(\theta \int_0^1 {\frac{{e^{ - ux} - 1}}{x}\,{\rm d}x \bigg)} , \;\; u \geq 0. El kth cumulant de X\kappa_k = \theta/k. Así, en particular, {\rm E}(X)=\kappa_1 = \theta{\rm Var}(X)=\kappa_2 = \theta/2. También hay un elegante fórmula recursiva para la nth momento.

La función de distribución de X es bastante complicado, y puede ser expresada como una suma de integrales múltiples (para ser elaborado en otra respuesta). En particular, la función de densidad de probabilidad para el caso de \theta = 1 está dado por e^{-\gamma}\rho(x) donde \rho es el conocido Dickman función.

5voto

Oli Puntos 89

Para la segunda pregunta, es razonable ver si va a funcionar el ejemplo estándar de una suma poco a poco convergente. Así que poner %#% $ #%

Da $$n^{-f(n)}=\frac{1}{n\log^2n}

Este $$f(n)=\frac{\log(n\log^2n)}{\log n} se comporta como usted quería que. (Necesitamos cambiar f un poco al principio para que sea bien definida y f$.)

0voto

Did Puntos 1

Pista para la primera pregunta: podría intentar calcular $E(xi); para ello podría comenzar por informática E(x{i+1}|x_i)$ luego utilizar lo que algunos llaman la torre propiedad de expectativas condicionales.

Pista para la segunda pregunta: si logras obtener n^{-f(n)} el término general de una serie que converge a, por ejemplo n^{-f(n)}=1/(n(\log n)^2), se podría hacer; Luego, tendrías que comprobar que f(n)\to1.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X