9 votos

Función inversa de la varianza

Para un número constante dado $r$ (por ejemplo, 4), ¿es posible encontrar una distribución de probabilidad para $X$ , por lo que tenemos $\mathrm{Var}(X)=r$ ?

1 votos

No, a menos que tengas información extra.

0 votos

@Hemant Rupani ¿qué información adicional se necesita?

1 votos

Cualquier naturaleza de la variable aleatoria 'X'

17voto

Daniel Puntos 295

Suponiendo que te refieras a "¿es posible encontrar un distribución de probabilidades para $X$ ", entonces la respuesta es sí, ya que no ha especificado ningún criterio que $X$ debe satisfacer. De hecho, hay un número infinito de posibles distribuciones que satisfacen esta condición. Basta con considerar una distribución normal, $\mathcal{N}(x ; \mu, \sigma^2)$ . Puede establecer $\sigma^2 = r$ y $\mu$ puede tomar el valor que quiera - entonces tendrá $Var[X] = r$ según sea necesario.

De hecho, la distribución Normal es bastante especial en este sentido, ya que es la distribución de probabilidad de máxima entropía para una media y una varianza dadas.

0 votos

Tienes razón, lo he corregido. ¿podrías explicarte mejor?

0 votos

@AmirEf ¿Qué no está claro?

6 votos

No está nada claro qué más debería explicar Daniel; la respuesta aquí parece abordar todo lo que se plantea en tu pregunta.

15voto

jldugger Puntos 7490

Esta pregunta puede interpretarse de una manera que la hace interesante y no del todo trivial. Dado algo $X$ que mira como una variable aleatoria, ¿hasta qué punto es posible asignar probabilidades a sus valores (o desplazar las probabilidades existentes) de manera que su varianza sea igual a algún número preestablecido $r$ ? La respuesta es que todo valores posibles $r\ge 0$ son admisibles, hasta un límite determinado por el rango de $X$ .

El interés potencial de este análisis reside en la idea de cambiar una medida de probabilidad, manteniendo fija una variable aleatoria, para conseguir un fin determinado. Aunque esta aplicación es sencilla, muestra algunas de las ideas que subyacen al Teorema de Girsanov un resultado fundamental en las finanzas matemáticas.


Replanteemos esta cuestión de forma rigurosa y sin ambigüedades. Supongamos que

$$X:(\Omega, \mathfrak{S}) \to \mathbb{R}$$

es una función medible definida en un espacio de medidas $\Omega$ con álgebra sigma $\mathfrak{S}$ . Para un número real dado $r \gt 0$ cuando es posible encontrar una medida de probabilidad $\mathbb{P}$ en este espacio para el que $\text{Var}(X) = r$ ?

Creo que la respuesta es que esto es posible cuando $\sup(X) - \inf(X) \gt 2\sqrt{r}$ . (La igualdad se puede mantener si el supremum y el infimum se alcanzan: es decir, son realmente el máximo y el mínimo de $X$ .) Cuando cualquiera de los dos $\sup(X)=\infty$ o $\inf(X)=-\infty$ esta condición no impone ningún límite a $r$ y entonces todos los valores no negativos de la varianza son posibles.

La prueba es por construcción. Empecemos con una versión sencilla, para cuidar los detalles y precisar la idea básica, y luego pasemos a la construcción propiamente dicha.

  1. Dejemos que $x$ ser a imagen y semejanza de $X$ Esto significa que hay una $\omega_x\in\Omega$ para lo cual $X(\omega_x) = x$ . Definir la función de conjunto $\mathbb{P}:\mathfrak{S}\to [0,1]$ para ser el indicador de $\omega_x$ Es decir, que.., $\mathbb{P}(A) = 0$ si $\omega_x\notin A$ y $\mathbb{P}(A) = 1$ cuando $\omega_x\in A$ .

    Desde $\mathbb{P}(\Omega)=1$ , obviamente $\mathbb P$ satisface los dos primeros axiomas de la probabilidad . Es necesario demostrar que satisface la tercera, es decir, que es sigma-aditiva. Pero esto es casi tan obvio: siempre que $\{E_i, i=1, 2, \ldots\}$ es un conjunto finito o contablemente infinito de eventos mutuamente excluyentes, entonces ninguno de ellos contiene $\omega_x$ -en cuyo caso $\mathbb{P}(E_i)=0$ para todos $i$ --o exactamente uno de ellos contiene $\omega_x$ , en cuyo caso $\mathbb{P}(E_j)=1$ para algún tipo de $j$ y por otra parte $\mathbb{P}(E_i)=0$ para todos $i\ne j$ . En cualquier caso

    $$\mathbb{P}\left(\cup_i E_i\right) = \sum_i \mathbb{P}(E_i)$$

    porque ambas partes son $0$ o ambos $1$ .

    Desde $\mathbb{P}$ concentra toda la probabilidad en $\omega_x$ La distribución de $X$ se concentra en $x$ y $X$ debe tener una varianza cero.

  2. Dejemos que $x_1 \le x_2$ sean dos valores en el rango de $X$ eso es, $X(\omega_1) = x_1$ y $X(\omega_2) = x_2$ . De manera similar al paso anterior, defina una medida $\mathbb{P}$ para ser una media ponderada de los indicadores de $\omega_1$ y $\omega_2$ . Utilizar pesos no negativos $1-p$ y $p$ para $p$ a determinar. Al igual que antes, encontramos que $\mathbb{P}$ --que es una combinación convexa de las medidas de los indicadores discutidos en (1)-- es una medida de probabilidad. La distribución de $X$ con respecto a esta medida es un Bernoulli $(p)$ distribución que ha sido escalada por $x_2-x_1$ y desplazado por $-x_1$ . Porque la varianza de un Bernoulli $(p)$ la distribución es $p(1-p)$ la varianza de $X$ debe ser $(x_2-x_1)^2p(1-p)$ .

Una consecuencia inmediata de (2) es que cualquier $r$ para los que existe $x_1 \le x_2$ en el rango de $X$ y $0 \le p \lt 1$ para lo cual

$$r = (x_2-x_1)^2p(1-p)$$

puede ser la varianza de $X$ . Desde $0 \le p(1-p) \le 1/4$ Esto implica

$$2\sqrt{r} = \sqrt{4 r} \le \sqrt{\frac{r}{p(1-p)}} = \sqrt{(x_2-x_1)^2} = x_2-x_1 \le \sup(X)-\inf(X),$$

con igualdad si y sólo si $X$ tiene un máximo y un mínimo.

Por el contrario, si $r$ supera este límite de $(\sup(X)-\inf(X))^2/4$ entonces no es posible ninguna solución, puesto que ya sabemos que la varianza de cualquier variable aleatoria acotada no puede superar un cuarto del cuadrado de su rango.

3 votos

Amigo, creo que estás en un nivel totalmente diferente al del OP.

4 votos

@Mark Probablemente. (Creo que has detectado un tufillo a humor muy seco aquí). Pero cualquiera que aplique la estadísticas-matemáticas a su puesto debería esperar este tipo de cosas :-).

2 votos

Me recuerda a cuando tomé una clase de 4 estudiantes del difunto profesor Samuel Karlin (de la fama de Karlin y Taylor, entre otras cosas) sobre "Positividad Total". El tema de la teoría de los juegos surgió de alguna manera. Dijo, oh, teoría de los juegos. Tienes dos medidas sigma-finitas no negativas ...., Ahora imagínalo presentando la teoría de juegos de esta manera a los estudiantes en una clase de economía de primer año en una universidad de artes liberales. Eso es lo que me hizo pensar tu post.

13voto

Silverfish Puntos 6909

Estudiar detenidamente los casos para $r$ : si $r=0$ entonces la distribución es degenerada, pero $X$ podría tener cualquier media. Es decir, $\Pr(X=\mu)=1$ y $\Pr(X=c)=0$ para cualquier $c \neq \mu$ . Así que podemos encontrar muchas distribuciones posibles para $X$ pero están indexados por, y completamente especificados por, $\mu \in \mathbb{R}$ .

Si $r<0$ no se puede encontrar ninguna distribución, ya que $\mathrm{Var}(X)=\mathbb{E}(X-\mu_X)^2 \geq 0$ .

Para $r>0$ la respuesta dependerá de la información adicional que se conozca sobre $X$ . Por ejemplo, si $X$ se sabe que tiene una media $\mu$ entonces para cualquier $\mu \in \mathbb{R}$ y $r>0$ podemos encontrar una distribución con estos momentos tomando $X \sim N(\mu, r)$ . Esta no es una solución única al problema de hacer coincidir la media y la varianza, pero es la única solución con distribución normal (y de todas las soluciones posibles, ésta es la que maximiza la entropía, como señala Daniel). Si también se quisiera hacer coincidir, por ejemplo, la tercera momento central o superior, entonces tendría que considerar una gama más amplia de distribuciones de probabilidad.

Supongamos que, en cambio, tenemos alguna información sobre la distribución de $X$ en lugar de sus momentos. Por ejemplo, si sabemos que $X$ sigue una distribución de Poisson, entonces la solución única sería $X \sim \mathrm{Poisson}(r)$ . Si sabemos que $X$ sigue una distribución exponencial, entonces de nuevo hay una solución única $X \sim \mathrm{Exponential}(\frac{1}{\sqrt{r}})$ donde hemos encontrado el parámetro resolviendo $\mathrm{Var}(X) = r = \frac{1}{\lambda^2}$ .

En otros casos podemos encontrar toda una familia de soluciones. Si sabemos que $X$ sigue una distribución rectangular (uniforme continua), entonces podemos encontrar una anchura única $w$ para la distribución resolviendo $\mathrm{Var}(X) = r = \frac{w^2}{12}$ . Pero habrá toda una familia de soluciones, $X \sim U(a, a+w)$ parametizado por $a \in \mathbb{R}$ - las distribuciones de este conjunto son todas traducciones de las demás. Del mismo modo, si $X$ es normal, entonces cualquier distribución $X \sim N(\mu, r)$ funcionaría (por lo que tenemos todo un conjunto de soluciones indexadas por $\mu$ que, de nuevo, puede ser cualquier número real, y de nuevo la familia son todas traslaciones de la otra). Si $X$ sigue un distribución gamma entonces, utilizando la parametrización de la escala de la forma, podemos obtener toda una familia de soluciones, $X \sim \mathrm{Gamma}(\frac{r}{\theta^2}, \theta)$ parametizado por $\theta > 0$ . Los miembros de esta familia no son traslaciones entre sí. Para ayudar a visualizar el aspecto de una "familia de soluciones", he aquí algunos ejemplos de distribuciones normales indexadas por $\mu$ y luego las distribuciones gamma indexadas por $\theta$ todos con varianza igual a cuatro, lo que corresponde al ejemplo $r=4$ en su pregunta.

Normal distributions with variance four Gamma distributions with variance four

Por otro lado, para algunas distribuciones puede ser posible o no encontrar una solución, dependiendo del valor de $r$ . Por ejemplo, si $X$ debe ser una variable Bernoulli entonces para $0 \leq r \lt 0.25$ hay dos posibles soluciones $X \sim \mathrm{Bernoulli}(p)$ porque hay dos probabilidades $p$ que resuelven la ecuación $\mathrm{Var}(X) = r = p(1-p)$ y de hecho estas dos probabilidades son complementarias, es decir $p_1 + p_2 = 1$ . Para $r=0.25$ sólo existe la solución única $p=0.5$ y para $r>0.25$ ninguna distribución Bernoulli tiene una varianza suficientemente alta.

Creo que también debo mencionar el caso $r = \infty$ . También hay soluciones para este caso, por ejemplo un Estudiante $t$ distribución con dos grados de libertad.

Código R para los gráficos

require(ggplot2)

x.df  <- data.frame(x = rep(seq(from=-8, to=8, length=100), times=5),
    mu = rep(c(-4, -2, 0, 2, 4), each=100))
x.df$pdf <- dnorm(mean=x.df$mu, x.df$x)
ggplot(x.df, aes(x=x, y=pdf, group=factor(mu), colour=factor(mu))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(mu), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Normal distributions with variance 4")

x.df  <- data.frame(x = rep(seq(from=0, to=20, length=1000), times=5),
    theta = rep(c(0.25, 0.5, 1, 2, 4), each=1000))
x.df$pdf <- dgamma(x.df$x, shape=4/(x.df$theta)^2, scale=x.df$theta)
ggplot(x.df, aes(x=x, y=pdf, group=factor(theta), colour=factor(theta))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(theta), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Gamma distributions with variance 4") +
    coord_cartesian(ylim = c(0, 1))

10voto

Aksakal Puntos 11351

Sí, es posible encontrar esa distribución. De hecho, se puede tomar cualquier distribución con una varianza finita y escalar para adaptarse a su condición, porque $$Var[cX]=c^2Var[X]$$

Por ejemplo, un distribución uniforme en el intervalo $[0,1]$ tiene varianza: $$\sigma^2=\frac{1}{12}$$ Por lo tanto, una distribución uniforme en el intervalo $\left[0,\frac{1}{\sqrt{12r}}\right]$ tendrá varianza $r$ .

De hecho, esta es una forma común de añadir parámetros a algunas distribuciones, como la t de Student, $\nu$ - grados de libertad. Cuando $\nu\to\infty$ la distribución converge a una normal estándar. Tiene forma de campana y se parece mucho a la normal, pero tiene colas más gordas. Por eso se suele utilizar como alternativa a la distribución normal cuando las colas son gordas. El único problema es que la distribución gaussiana tiene dos parámetros. Por lo tanto, viene la versión escalada de la t de Student, que a veces se llama " Distribución "t location scale". . Se trata de una transformación muy sencilla: $\xi=\frac{t-\mu}{s}$ , donde $\mu,s$ son la ubicación y la escala. Ahora, puedes establecer la escala para que la nueva variable $\xi$ tendrá cualquier varianza requerida, y tendrá una forma de distribución t de Student.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X