3 votos

¿Es posible obtener Cov(X,Y) a partir únicamente de Var(X) y Var(Y)?

Estoy tratando de escribir un programa simple que pueda tomar un conjunto arbitrario de datos de pares [x,y] de un archivo dado, analizar e imprimir cualquier característica estadística interesante.

De las cosas que me interesan, es imprimir alguna descripción estadística de los datos basada en cosas como la correlación estadística. Pero ahora mi problema es que no hay información dada al programa sobre la distribución de probabilidad de la que se tomó la muestra, y por lo tanto cosas como Cov(X,Y) parecen evadirme desde la fórmula:

$$Cov(X,Y)=\langle XY\rangle - \mu_x\mu_y$$

requiere que sea capaz de calcular la Expectativa de XY, lo que a su vez requiere que conozca la función de densidad de probabilidad de la fuente. Entonces, ¿qué puedo hacer para obtener la $Cov(XY)$ cuando sólo puedo calcular $mean(x), mean(y) ,var(x) $ y $var(y)$ ?

Eventualmente, estoy interesado en decir algo sobre la correlación entre X e Y.

7voto

Did Puntos 1

Entonces, ¿qué puedo hacer para obtener [la covarianza de $X$ y $Y$ cuando sólo puedo calcular [sus medias y varianzas]? Nada, me temo.

A modo de ejemplo, consideremos una variable normal estándar $X$ . Si $Y=X$ entonces ambas medias son cero, ambas varianzas son $1$ y la covarianza de $X$ y $Y$ es $+1$ . Si $Y=-X$ entonces ambas medias son cero, ambas varianzas son $1$ y la covarianza de $X$ y $Y$ es $-1$ . Esto le muestra debe conocer algo más que las medias y las varianzas para obtener la covarianza.

4voto

Dilip Sarwate Puntos 14967

Si puede calcular ${\textit mean}(x)$ que supongo que es la media muestral $$ {\textit mean}(x) = \frac{1}{n}\sum_{i=1}^n x_i $$ de su conjunto de datos frente a la expectativa $\mu_x$ que requiere el conocimiento de la distribución de probabilidad, y de forma similar la varianza muestral $$ {\textit var}(x) = \frac{1}{n-1}\sum_{i=1}^n (x_i - {\textit mean}(x))^2 $$ entonces debería poder calcular también una covarianza muestral para sus muestras utilizando algo como $$ {\textit cov}(x,y) = \frac{1}{n-1}\sum_{i=1}^n (x_i - {\textit mean}(x))(y_i - {\textit mean}(y)). $$ Las medias muestrales, las varianzas muestrales y las covarianzas muestrales son (insesgadas) estimadores de las medias, varianzas y covarianzas de la distribución de probabilidad subyacente que "generó" los pares de muestras $(x_i, y_i), i = 1, 2, \ldots n,$ en su conjunto de datos.

3voto

Dillie-O Puntos 193

No creo que haya manera si sólo tienes las medias y las varianzas. Pero si usted tiene las observaciones individuales, entonces usted puede estimar la covarianza por la covarianza de la muestra $$\frac{1}{N-1}\sum_{i=1}^N (x_i-\bar x)(y_i-\bar y)$$ donde $N$ es el número de observaciones, $(x_i,y_i)$ son las observaciones y $\bar x$ y $\bar y$ son las medias muestrales de $X$ y $Y$ respectivamente. Este tema se trata en cualquier libro de estadística elemental.

2voto

palehorse Puntos 8268

Suponiendo media cero, y aplicando Cauchy-Schwarz: $$ |Cov(X,Y)|=|E(XY)| \le \sqrt{E(X^2) E(Y^2)} = \sqrt{Var(X) Var(Y)}$$ El mismo resultado puede obtenerse para una media distinta de cero, y este límite es todo lo que puede obtenerse a partir de la información marginal (media y varianza).

Los, los extremos (en valor absoluto) de la covarianza se realizan para $X,Y$ independiente, $Cov(X,Y)=0$ y para $X=Y$ , $Cov(X,Y) = Var(X)=Var(Y)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X