Deje $F$ ser una distribución en $[0,1]$. Vamos a demostrar que si la varianza de $F$ es máxima, a continuación, $F$ puede tener ningún apoyo en el interior, del que se desprende que $F$ es de Bernoulli y el resto es trivial.
Como una cuestión de notación, deje $\mu_k = \int_0^1 x^k dF(x)$ $k$th raw momento de la $F$ (y, como de costumbre, escribimos $\mu = \mu_1$ $\sigma^2 = \mu_2 - \mu^2$ de la varianza).
Sabemos $F$ no tiene todo su apoyo en un punto (la varianza es mínima en este caso). Entre otras cosas, esto implica $\mu$ se encuentra estrictamente entre el$0$$1$. Con el fin de argumentar por contradicción, supongamos que existe algún subconjunto medible $I$ en el interior $(0,1)$ que $F(I)\gt 0$. Sin pérdida de generalidad podemos suponer que (cambiando $X$ $1-X$si es necesario) que $F(J = I \cap (0, \mu]) \gt 0$: en otras palabras, $J$ se obtiene al cortar cualquier parte de $I$ por encima de la media y $J$ tiene probabilidad positiva.
Nos deja alterar $F$ $F'$tomando todas la probabilidad de $J$, que coloca a $0$. Al hacerlo, $\mu_k$ cambios
$$\mu'_k = \mu_k - \int_J x^k dF(x).$$
Como una cuestión de notación, vamos a escribir $[g(x)] = \int_J g(x) dF(x)$ de tales integrales, de donde
$$\mu'_2 = \mu_2 - [x^2], \quad \mu' = \mu - [x].$$
Calcular
$$\sigma'^2 = \mu'_2 - \mu'^2 = \mu_2 - [x^2] - (\mu - [x])^2 = \sigma^2 + \left((\mu[x] - [x^2]) + (\mu[x] - [x]^2)\right).$$
El segundo término de la derecha, $(\mu[x] - [x]^2)$, no es negativo debido a que $\mu \ge x$ todas partes en $J$. El primer término de la derecha se puede volver a escribir
$$\mu[x] - [x^2] = \mu(1 - [1]) + ([\mu][x] - [x^2]).$$
El primer término de la derecha es estrictamente positivo, porque (a) $\mu \gt 0$ y (b) $[1] = F(J) \lt 1$ porque hemos asumido $F$ no está concentrada en un punto. El segundo término no es negativo porque puede ser reescrita como $[(\mu-x)(x)]$ e esta integrando es no negativa de los supuestos $\mu \ge x$$J$$0 \le x \le 1$. De ello se desprende que $\sigma'^2 - \sigma^2 \gt 0$.
Acabamos de manifiesto que, en nuestra hipótesis, el cambio de $F$ $F'$estrictamente aumenta su varianza. La única manera en que esto no sucede, entonces, es cuando la probabilidad de $F'$ se concentra en los extremos de $0$$1$, con (por ejemplo) los valores de $1-p$$p$, respectivamente. Su varianza se calcula fácilmente a la igualdad de $p(1-p)$ que es máxima cuando $p=1/2$ y es igual a $1/4$ no.
Ahora, cuando $F$ es una distribución en $[a,b]$, podemos volver a centrar y escalarlo para una distribución en $[0,1]$. El recentering no cambia la varianza, mientras que el reescalado divide por $(b-a)^2$. Por lo tanto una $F$ con la máxima variación en $[a,b]$ corresponde a la distribución con la máxima variación en $[0,1]$: por lo tanto, es una de Bernoulli$(1/2)$ distribución de reescalado y traducido a $[a,b]$ tener varianza $(b-a)^2/4$, QED.
10 votos
Un límite superior útil para la varianza de una variable aleatoria que toma valores en $[a,b]$ con probabilidad $1$ es $(b-a)^2/4$ y se consigue mediante una variable aleatoria discreta que toma valores $a$ y $b$ con igual probabilidad $\frac{1}{2}$ . Otro punto a tener en cuenta es que se garantiza la existencia de la varianza, mientras que una variable aleatoria no limitada puede no tener varianza (algunas, como las variables aleatorias de Cauchy, ni siquiera tienen media).