24 votos

Variable aleatoria uniforme como suma de dos variables aleatorias

Tomado de Grimmet and Stirzaker:

Demuestra que no puede ser el caso de que $U=X+Y$ donde $U$ está uniformemente distribuido en $[0,1]$ y $X$ y $Y$ son independientes e idénticamente distribuidos. No debes asumir que $X$ y $Y$ son variables continuas.

Una simple prueba por contradicción es suficiente para el caso donde se asume que $X$, $Y$ son discretos argumentando que siempre es posible encontrar un $u$ y $u'$ tal que $P(U\leq u+u') \geq P(U\leq u)$ mientras que $P(X+Y \leq u) = P(X+Y \leq u+u')$.

Sin embargo, esta prueba no se extiende a $X,Y$ siendo absolutamente continuos o continuos singulares. ¿Pistas/Comentarios/Críticas?

6 votos

Pista: Las funciones características son tus amigas.

2 votos

X e Y son iid por lo que sus funciones características deben ser idénticas. Necesitas usar la función característica no la función generadora de momentos, aunque la mgf no está garantizada de existir para X, por lo que mostrar que la mgf tiene una propiedad imposible no significa que no haya tal X. Todas las RVs tienen una función característica, por lo que si muestras que tiene una propiedad imposible, entonces no hay tal X.

3 votos

Si las distribuciones de $X$ e $Y$ tienen algún átomo, diga que $P\{X=a\}=P\{Y=a\} = b > 0$, entonces $P\{X+Y=2a\} \geq b^2 > 0$ y por lo tanto $X+Y$ no puede estar uniformemente distribuido en $[0,1]$. Por lo tanto, no es necesario considerar el caso de que las distribuciones de $X$ y $Y$ tengan átomos.

17voto

jldugger Puntos 7490

El resultado se puede demostrar con una imagen: las áreas grises visibles muestran que una distribución uniforme no puede descomponerse como la suma de dos variables idénticamente distribuidas e independientes.

Notación

Sean $X$ e $Y$ tales que $X+Y$ tiene una distribución uniforme en $[0,1]$. Esto significa que para todo $0\le a \le b \le 1$,

$$\Pr(a < X+Y \le b) = b-a.$$

El soporte esencial de la distribución común de $X$ e $Y$ es por lo tanto $[0,1/2]$ (de otro modo habría probabilidad positiva de que $X+Y$ esté fuera de $[0,1]$).

La Imagen

Sea $0 \lt \epsilon \lt 1/4$. Contempla este diagrama que muestra cómo se calculan las sumas de variables aleatorias:

Figura

La distribución de probabilidad subyacente es la conjunta de $(X,Y)$. La probabilidad de cualquier evento $a \lt X+Y \le b$ está dada por la probabilidad total cubierta por la banda diagonal que se extiende entre las líneas $x+y=a$ y $x+y=b$. Se muestran tres de esas bandas: desde $0$ hasta $\epsilon$, apareciendo como un pequeño triángulo azul en la esquina inferior izquierda; desde $1/2-\epsilon$ hasta $1/2+\epsilon$, mostrada como un rectángulo gris con dos triángulos (amarillo y verde) en la parte superior; y desde $1-\epsilon$ hasta $1$, apareciendo como un pequeño triángulo rojo en la esquina superior derecha.

Lo que la Imagen Muestra

Al comparar el triángulo inferior izquierdo en la figura con el cuadrado que lo contiene y explotando la suposición de iid para $X$ e $Y$, es claro que

$$\epsilon = \Pr(X+Y \le \epsilon) \lt \Pr(X \le \epsilon)\Pr(Y \le \epsilon) = \Pr(X \le \epsilon)^2.$$

Observa que la desigualdad es estricta: la igualdad no es posible porque existe una probabilidad positiva de que tanto $X$ como $Y$ sean menores que $\epsilon$ pero, sin embargo, $X+Y \gt \epsilon$.

De manera similar, al comparar el triángulo rojo con el cuadrado en la esquina superior derecha,

$$\epsilon = \Pr(X+Y \gt 1-\epsilon) \lt \Pr(X \gt 1/2-\epsilon)^2.$$

Finalmente, al comparar los dos triángulos opuestos en la esquina superior izquierda y la inferior derecha con la banda diagonal que los contiene, se obtiene otra desigualdad estricta,

$$2\epsilon \lt 2 \Pr(X\le \epsilon)\Pr(X \gt 1/2-\epsilon) \lt \Pr(1/2-\epsilon \lt X+Y \le 1/2+\epsilon) = 2\epsilon.$$

La primera desigualdad surge de las dos anteriores (se toman sus raíces cuadradas y se multiplican) mientras que la segunda describe la inclusión (estricta) de los triángulos en la banda y la última igualdad expresa la uniformidad de $X+Y$. La conclusión de que $2\epsilon \lt 2\epsilon$ es la contradicción que demuestra que tales $X$ e $Y$ no pueden existir, QED.

4 votos

(+1) Me gusta este enfoque. Al recuperar mi trozo de papel de la papelera, puedo ver que dibujé el mismo diagrama, excepto que no marqué los triángulos amarillo y verde dentro de la banda. Sí obtuve las desigualdades para los triángulos azul y rojo. Jugaba con ellas y con algunas otras probabilidades, pero nunca pensé en investigar la probabilidad de la franja, lo cual resulta ser el paso crucial. ¿Me pregunto qué proceso de pensamiento podría haber motivado esta perspicacia?

0 votos

De hecho, donde @whuber tiene triángulos amarillos y verdes, dibujé en cuadrados (de hecho, descompué $[0, 0.5]^2$ en una cuadrícula). Al observar el paso que "describe la inclusión (estricta) de los triángulos dentro de la banda", $2 \Pr(X\le \epsilon)\Pr(X \gt 1/2-\epsilon) \lt \Pr(1/2-\epsilon \lt X+Y \le 1/2+\epsilon)$, me pregunto si en realidad sería más natural geométricamente que los cuadrados cubran la banda en lugar de los triángulos.

1 votos

@Silver Me recordé de un análisis de sumas de distribuciones uniformes que publiqué hace un par de años. Eso sugería visualizar la suma $X+Y$ geométricamente. Fue inmediatamente evidente que gran parte de la probabilidad debía estar concentrada cerca de las esquinas $(0,0)$ y $(1/2,1/2)$ para que la suma fuera uniforme y que relativamente poca probabilidad estuviera cerca de la diagonal central $X+Y=1/2$. Eso llevó al diagrama, que volví a dibujar en Mathematica. En ese punto la respuesta se escribió sola. Sí, usar cuadrados en la banda central podría ser más ordenado.

13voto

Silverfish Puntos 6909

Intenté encontrar una prueba sin considerar funciones características. El exceso de curtosis hace el truco. Aquí está la respuesta de dos líneas: $\text{Kurt}(U) = \text{Kurt}(X + Y) = \text{Kurt}(X) / 2$ ya que $X$ e $Y$ son iid. Luego $\text{Kurt}(U) = -1.2$ implica $\text{Kurt}(X) = -2.4$, lo cual es una contradicción ya que $\text{Kurt}(X) \geq -2$ para cualquier variable aleatoria.

Más interesante es la línea de razonamiento que me llevó a ese punto. $X$ (y $Y$) deben estar limitados entre 0 y 0.5 - eso es obvio, pero significa útilmente que sus momentos y momentos centrales existen. Comencemos considerando la media y la varianza: $\mathbb{E}(U)=0.5$ y $\text{Var}(U)=\frac{1}{12}$. Si $X$ e $Y$ son idénticamente distribuidos entonces tenemos:

$$\mathbb{E}(X + Y) = \mathbb{E}(X) + \mathbb{E}(Y) = 2 \mathbb{E}(X)= 0.5$$

Entonces $\mathbb{E}(X) = 0.25$. Para la varianza necesitamos usar la independencia adicionalmente para aplicar:

$$\text{Var}(X+Y) = \text{Var}(X) + \text{Var}(Y) = 2 \text{Var}(X) = \frac{1}{12}$$

Por lo tanto $\text{Var}(X) = \frac{1}{24}$ y $\sigma_X = \frac{1}{2\sqrt{6}} \approx 0.204$. ¡Wow! Eso es mucha variación para una variable aleatoria cuyo soporte va de 0 a 0.5. Pero deberíamos haber esperado eso, ya que la desviación estándar no va a escalar de la misma forma que lo hizo la media.

Ahora, ¿cuál es la mayor desviación estándar que puede tener una variable aleatoria si el valor más pequeño que puede tomar es 0, el valor más grande que puede tomar es 0.5 y la media es 0.25? Recogiendo toda la probabilidad en dos masas de puntos en los extremos, a 0.25 de la media, claramente daría una desviación estándar de 0.25. Así que nuestra $\sigma_X$ es grande pero no imposible. (Esperaba mostrar que esto implicaba que había demasiada probabilidad en las colas para que $X + Y$ fuera uniforme, pero no pude llegar a ningún lado con eso rápidamente.)

Consideraciones del segundo momento casí pusieron una restricción imposible en $X así que consideremos momentos más altos. ¿Qué tal el coeficiente de asimetría de momentos de Pearson, $\gamma_1 = \frac{\mathbb{E}(X - \mu_X)^3}{\sigma_X^3} = \frac{\kappa_3}{\kappa_2^{3/2}}$? Esto existe ya que los momentos centrales existen y $\sigma_X \neq 0$. Es útil saber algunas propiedades de los cumulantes, en particular aplicar independencia y luego distribución idéntica da:

$$\kappa_i(U) = \kappa_i(X + Y) = \kappa_i(X) + \kappa_i(Y) = 2\kappa_i(X)$$

Esta propiedad de aditividad es precisamente la generalización de cómo tratamos con la media y varianza arriba - de hecho, los primeros y segundos cumulantes son simplemente $\kappa_1 = \mu$ y $\kappa_2 = \sigma^2$.

Luego $\kappa_3(U) = 2\kappa_3(X)$ y $\big(\kappa_2(U)\big)^{3/2} = \big(2\kappa_2(X)\big)^{3/2} = 2^{3/2} \big(\kappa_2(X)\big)^{3/2}$. La fracción para $\gamma_1$ se cancela para dar $\text{Asimetría}(U) = \text{Asimetría}(X + Y) = \text{Asimetría}(X) / \sqrt{2}$. Dado que la distribución uniforme tiene asimetría cero, también la tiene $X$, pero no veo cómo surge una contradicción de esta restricción.

Entonces en vez de eso, intentemos la curtosis en exceso, $\gamma_2 = \frac{\kappa_4}{\kappa_2^2} = \frac{\mathbb{E}(X - \mu_X)^4}{\sigma_X^4} - 3$. Por un argumento similar (esta pregunta es de autoestudio, ¡así que inténtalo!), podemos mostrar que esto existe y obedece:

$$\text{Curt}(U) = \text{Curt}(X + Y) = \text{Curt}(X) / 2$$

La distribución uniforme tiene curtosis en exceso $-1.2$ así que necesitamos que $X$ tenga curtosis en exceso $-2.4$. Pero la menor curtosis en exceso posible es $-2$, que se logra con la distribución de Bernoulli $\text{Binomial}(1, \frac{1}{2})$.

4 votos

(+1) Esta es una aproximación bastante ingeniosa, que era nueva para mí. Gracias. Ten en cuenta que parte de tu análisis podría haber sido simplificada considerando una distribución uniforme centrada en cero. (La equivalencia del problema es inmediata.) Eso te habría dicho de inmediato que considerar la asimetría era un callejón sin salida.

0 votos

@cardinal: Sabía que el sesgo era un callejón sin salida antes de trabajar en él. El propósito era expositivo: ¡es una pregunta de autoestudio, así que no quería resolverla por completo! Más bien quería dejar una pista sobre cómo lidiar con el próximo nivel...

0 votos

@cardinal: Estaba en dos mentes si centrar o no. Hice cálculos rápidos más convenientemente, pero en última instancia solo necesitamos (1) un caso simple del resultado general de que $Kurt(X_1 + ... + X_n) = \frac{1}{n}Kurt(X)$ para $X_i$ iid, (2) que $Kurt(U) = -1.2$ para cualquier distribución uniforme, y (3) $Kurt(X)$ existe ya que $X$ está acotado y $\sigma_X \neq 0$ (lo cual es trivial, de lo contrario $\sigma_U = 0$). Así que ninguno de los resultados clave realmente requirió centrado, ¡aunque partes pueden haber parecido menos feas!

7voto

Maxime Puntos 322

Suponga $U = X + Y$ para dos variables aleatorias i.i.d.

Primero, note que dado que $U$ tiene soporte $[0, 1]$, el soporte de $X$ (y $Y$) debe ser un subconjunto de $[0, 1/2]$, como resultado de \begin{align} & P[X > 1/2]^2 = P[X > 1/2, Y > 1/2] \leq P[X + Y > 1] = P[U > 1] = 0, \\ & P[X < 0]^2 = P[X < 0, Y < 0] \leq P[X + Y < 0] = P[U < 0] = 0. \end{align}

Esto muestra que $E[|X|^k] \leq \frac{1}{2^k} < \infty$ para todo $k \in \mathbb{N}$, entonces si dejamos que $\varphi$ sea la función característica de $X$, entonces para todo $t \in \mathbb{R}$, $\varphi$ es diferenciable en $t$ y $\varphi'(t) = E\left[iXe^{itX}\right]$ (vea Probability and Measure (3ª edición) de Patrick Billingsley, pp. 343-345).

Luego, dado que la función característica de $U$ es $\varphi_U(t) = \frac{e^{it} - 1}{it}$ y $\varphi_U(t) = \varphi(t)^2$ por asunción, tenemos \begin{align} \varphi(t)^2 = \frac{e^{it} - 1}{it}. \tag{1}\label{1} \end{align}

Entonces se sigue que (diferenciando ambos lados de $\eqref{1}$) \begin{align} 2\varphi(t)\varphi'(t) = \frac{-te^{it} - ie^{it} + i}{-t^2}. \tag{2}\label{2} \end{align}

Por $\eqref{1}$, $\varphi^2(2\pi) = 0$, entonces $\varphi(2\pi) = 0$. Por otro lado, $\eqref{2}$ implica que \begin{align} 2\varphi(2\pi)\varphi'(2\pi)= -\frac{i}{4\pi^2} \neq 0, \end{align} es decir, $\varphi(2\pi) \neq 0$. Esto es una contradicción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X