Supongamos que tengo una muestra $(X_n,Y_n), n=1..N$ de la distribución conjunta de $X$ y $Y$ . ¿Cómo puedo probar la hipótesis de que $X$ y $Y$ son independiente ?
No se hace ninguna suposición sobre las leyes de distribución conjunta o marginal de $X$ y $Y$ (menos aún la normalidad conjunta, ya que en ese caso la independencia es idéntica a la correlación siendo $0$ ).
No se hace ninguna suposición sobre la naturaleza de una posible relación entre $X$ y $Y$ puede ser no lineal, por lo que las variables son no correlacionado ( $r=0$ ) pero altamente codependiente ( $I=H$ ).
Puedo ver dos enfoques:
-
Bin ambas variables y el uso de Prueba exacta de Fisher o Prueba G .
- Pro: utilizar pruebas estadísticas bien establecidas
- Contra: depende del binning
-
Estimar el dependencia de $X$ y $Y$ : $\frac{I(X;Y)}{H(X,Y)}$ (esto es $0$ para los independientes $X$ y $Y$ y $1$ cuando se determinan completamente).
- Pro: produce un número con un claro significado teórico
- En contra: depende del cálculo aproximado de la entropía (es decir, del binning de nuevo)
¿Tienen sentido estos planteamientos?
¿Qué otros métodos utiliza la gente?