Para 2 variables independientes el uno del otro, si la correlación = 0 o información mutua = 0 o covarianza = 0. He visto diferentes condiciones y todos estos son realmente complicadas.
Respuestas
¿Demasiados anuncios?1) la covarianza=0 implica correlación=0 (siempre y cuando las varianzas no son 0).
2) correlación (o covarianza 0) es una condición necesaria pero no suficiente para la independencia. La independencia implica tanto la correlación y la covarianza son 0, pero ambos pueden ser 0 con la perfección dependiente de los datos.
Ver aquí:
Si las variables son independientes, el coeficiente de correlación de Pearson es de 0, pero el recíproco no es cierto debido a que el coeficiente de correlación sólo detecta lineal de las relaciones de dependencia entre dos variables. Por ejemplo, supongamos que la variable aleatoria X se distribuyen simétricamente alrededor de cero, y $Y = X^2$. A continuación, Y está totalmente determinado por X, de modo que X e y son perfectamente dependiente, pero su correlación es cero
Como Dilip dice, necesitamos $E[|X^3|]$ finita para el ejemplo específico de aquí; no será un criterio similar en otros casos. Por ejemplo, si $Y=f(X)$ para algunos, incluso,$f$, necesitaríamos $E[|X.f(X)|]$ a un ser finito, por la simetría para hacer la covarianza 0.
3) Como se dice aquí:
I(X; Y) = 0 si y sólo si X y y son variables aleatorias independientes.
Es decir, la información mutua 0 implica la independencia (y viceversa).
Dos variables son independientes si son ortogonales uno al otro. Lo que significa que su producto escalar es igual a 0.
$\mathbf{a}\cdot \mathbf{b} = \sum_{i=1}^n a_ib_i = a_1b_1 + a_2b_2 + \cdots + a_nb_n = 0$
En otras palabras, una variable no contiene ninguna información sobre la segunda variable.
Diferentes condiciones de independencia provienen de diferentes campos de la ciencia como de álgebra lineal o la teoría de la probabilidad, pero el concepto subyacente es siempre la misma.