11 votos

Expectativa de raíz cuadrada de la suma de variables aleatorias uniformes cuadradas independientes

Deje $X_1,\dots,X_n \sim U(0,1)$ ser independiente y identicallly distribuidos los uniformes de las variables aleatorias.

$$\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big]$$


La expectativa de $Y_n$ es fácil:

$$\begin{align} \mathbb{E}[X^2] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}[Y_n] &=\mathbb{E}[\sum_i^nX_i^2] = \sum_i^n\mathbb{E}[X_i^2]=\frac{n}{3} \end{align}$$

Ahora para la perforación de la parte. Para aplicar LOTUS, necesito el pdf de $Y_n$. Por supuesto, el pdf de la suma de dos variables aleatorias independientes es la convolución de sus archivos pdf. Sin embargo, aquí tenemos a $n$ variables aleatorias y supongo que la convolución llevaría a una...complicado de expresión (horrible juego de palabras). Hay una forma más inteligente?

Yo prefiero ver la solución correcta, pero si es imposible o muy complicado, una aproximación asintótica para un gran $n$ podría ser aceptable. Por la desigualdad de Jensen, yo sé que

$$\sqrt{\mathbb{E}[Y_n]}=\sqrt{\frac{n}{3}}\geq\mathbb{E}[\sqrt{Y_n}]$$

Pero esto no me ayuda mucho, a menos que se puede encontrar también un no-trivial límite inferior. Tenga en cuenta que la CLT directamente no se aplican aquí, porque tenemos la raíz cuadrada de la suma de independiente RVs, no sólo la suma de independiente RVs. Tal vez podría haber otros teoremas límite (que lo ignoro) que pueden ser de ayuda aquí.

13voto

kjetil b halvorsen Puntos 7012

Un enfoque es en primer lugar calcular el momento de generación de función (mgf) de $Y_n$ definido por $Y_n = U_1^2 + \dotso + U_n^2$ cuando la $U_i, i=1,\dotsc, n$ es independiente y identicallly distribuidos los uniformes de las variables aleatorias.

Cuando tenemos que, podemos ver que $$ \DeclareMathOperator{\E}{\mathbb{E}} \E \sqrt{Y_n} $$ es la fracción de instante de $Y_n$ orden $\alpha=1/2$. A continuación, podemos utilizar los resultados de el papel de Noel Cressie y Marinus Borkent: "El Momento de Generación de Función tiene sus Momentos", Revista de la Planificación Estadística e Inferencia 13 (1986) 337-344, que da fracciones de minutos a través de la diferenciación fraccional del momento de generación de función.

Primero el momento de generación de la función de $U_1^2$, lo que escribimos $M_1(t)$. $$ M_1(t) = \E E^{t U_1^2} = \int_0^1 \frac{e^{tx}}{2\sqrt{x}}\; dx $$ y he evaluado que (con la ayuda de Maple y Wolphram Alpha) para dar $$ \DeclareMathOperator{\fer}{fer} M_1(t)=\begin{cases} t>0 :& \frac{-i\erf(i\sqrt{t})\sqrt{\pi}}{2\sqrt{t}}\\ t=0 :& 1 \\ t<0 :& \frac{\erf(\sqrt{-t})\sqrt{\pi}}{2\sqrt{-t}} \end{casos} $$ where $i=\sqrt{-1}$ es la unidad imaginaria. (Wolphram Alpha da una respuesta, pero en términos de la Dawson integral: https://en.wikipedia.org/wiki/Dawson_function). Resulta que la mayoría va a necesitar el caso de $t<0$. Ahora es fácil encontrar la mgf de $Y_n$: $$ M_n(t) = M_1(t)^n $$ A continuación, los resultados del artículo citado. Para $\mu>0$ que definir el $\mu$th orden integral de la función $f$ $$ I^\mu f(t) \equiv \Gamma(\mu)^{-1} \int_{-\infty}^t (t-z)^{\mu-1} f(z)\; dz $$ Entonces, para $\alpha>0$ y no integral, $n$ un entero positivo, y $0<\lambda<1$ tal que $\alpha=n-\lambda$. Entonces la derivada de $f$ orden $\alpha$ se define como $$ D^\alpha f(t) \equiv \Gamma(\lambda)^{-1}\int_{-\infty}^t (t-z)^{\lambda-1} \frac{d^n f(z)}{d z^n}\; dz. $$ Luego de que el estado (y probar) el siguiente resultado, por un positivo de la variable aleatoria $X$: Supongamos $M_X$ (mgf) es definido. Entonces, para $\alpha>0$, $$ D^\alpha M_X(0) = \E X^\alpha < \infty $$ Ahora podemos intentar aplicar estos resultados a $Y_n$. Con $\alpha=1/2$ encontramos $$ \E Y_n^{1/2} = D^{1/2} M_n (0) = \Gamma(1/2)^{-1}\int_{-\infty}^0 |z|^{-1/2} M_n'(z) \; dz $$ donde el primer denota la derivada. Arce le da la siguiente solución: $$ \int_{-\infty}^0 \frac{n\cdot\left(\erf(\sqrt {z})\sqrt{\pi}-2e^z\sqrt {z} \right)e^{\frac{n(-2\ln 2 +2 \ln(\erf(\sqrt {z}))-\ln(-z) +\ln(\pi))}{2}}}{2\pi(-z)^{3/2}\erf(\sqrt {z})} \; dz $$ Voy a mostrar una parcela de esta expectativa, realizado en madera de arce usando integración numérica, junto con la solución aproximada $A(n)=\sqrt{n/3-1/15}$ a partir de algunos comentarios (y discutido en la respuesta por @Henry). Están muy cerca:

enter image description here

Como complemento, un gráfico del porcentaje de error:

enter image description here

Arriba acerca de la $n=20$ la aproximación está cerca exacta. Por debajo de la de arce código utilizado:

int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t>0;
int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t<0;
M := t -> erf(sqrt(-t))*sqrt(Pi)/(2*sqrt(-t))
Mn := (t,n) -> exp(n*log(M(t)))
A  :=  n -> sqrt(n/3 - 1/15)
Ex :=  n ->   int( diff(Mn(z,n),z)/(sqrt(abs(z))*GAMMA(1/2) ), z=-infinity..0 ,numeric=true)

plot([Ex(n),A(n)],n=1..100,color=[blue,red],legend=[exact,approx],labels=[n,expectation],title="expectation of sum of squared uniforms")
plot([((A(n)-Ex(n))/Ex(n))*100],n=1..100,color=[blue],labels=[n,"% error"],title="Percentage error of approximation")

5voto

Alan Puntos 7273

Como un comentario extendido: parece claro aquí que $E\left[\sqrt{Y_n}\right]= E\left[\sqrt{\sum_i X_i^2}\right]$ comienza con $E\left[\sqrt{Y_n}\right] =\frac12=\sqrt{\frac{n}{3}-\frac{1}{12}}$ al $n=1$ y, a continuación, enfoques $\sqrt{\frac{n}{3}-\frac{1}{15}}$ $n$ aumenta, relativa a la variación de $\sqrt{Y_n}$ la caída de $\frac{1}{12}$ hacia $\frac{1}{15}$. Mi vinculado pregunta que S. Catterall respondió proporciona una justificación para la $\sqrt{\frac{n}{3}-\frac{1}{15}}$ asintótico basado en los resultados en cada una de las $X_i^2$ con media de $\frac13$ y la varianza $\frac{4}{45}$, y para la distribución aproximada y asintóticamente normal.

Esta pregunta es, efectivamente, acerca de la distribución de las distancias desde el origen de puntos aleatorios en un $n$-dimensiones de la unidad de hipercubo $[0,1]^n$. Es similar a una pregunta sobre la distribución de las distancias entre los puntos en un hipercubo, así que se pueden adaptar fácilmente qué hacía allí para mostrar las densidades de diversos $n$ $1$ $16$utilizando los convolución. Para $n=16$, la propuesta de aproximación normal se muestra en rojo es un buen ajuste, y de $n=4$ usted puede ver una curva en forma de campana que aparecen.

enter image description here

Para $n=2$ $n=3$ usted obtiene un pico agudo en el modo de $1$ con lo que parece ser la misma densidad en ambos casos. Compare esto con la distribución de $\sum_i X_i$, donde la curva de la campana aparece con $n=3$ y donde la varianza es proporcional a $n$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X