Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

10 votos

¿Cómo comparar la distribución conjunta con el producto de las distribuciones marginales?

Tengo dos señales de muestreo fino, x1 y x2 y quiero comprobar la independencia estadística.

Sé que para dos señales estadísticamente independientes, su distribución de probabilidad conjunta es un producto de las dos distribuciones marginales.

Me han aconsejado que utilice histogramas para aproximar las distribuciones. He aquí un pequeño ejemplo.

x1 = rand(1, 50);
x2 = randn(1, 50);
n1 = hist(x1);
n2 = hist(x2);
n3 = hist3([x1' x2']);

Como estoy utilizando el número de contenedores por defecto, n1 y n2 son vectores de 10 elementos, y n3 es una matriz de 10x10.

Mi pregunta es la siguiente: ¿Cómo puedo comprobar si n3 es de hecho un producto de n1 y n2 ?

¿Debo utilizar un producto externo? Y si lo hago, ¿debo utilizar x1'*x2 o x1*x2' ? ¿Y por qué?

Además, he observado que hist devuelve el número de elementos (frecuencia) de los elementos en cada bin? ¿Hay que normalizarlo de alguna manera? (No he entendido exactamente cómo hist3 funciona tampoco..)

Muchas gracias por su ayuda. Soy realmente nuevo en la estadística, así que algunas respuestas explicativas me ayudarían mucho.

3voto

Wesley Puntos 22784

Suponiendo que no se conocen las distribuciones teóricas de x1 y x2, un algoritmo ingenuo para determinar la independencia sería el siguiente:

Defina x12 como el conjunto de todas las co-ocurrencias de los valores de x1 y x2. Por ejemplo, si x1 = { 1, 2, 2 } y x2 = { 3, 6, 5}, el conjunto de co-ocurrencias sería { (1,3), (1, 6), (1, 5) , (2, 3), (2,6), (2,5), (2, 3), (2,6), (2,5)) }.

  1. Estime las funciones de densidad de probabilidad (PDF) de x1, x2 y x12, denotadas como P_x1, P_x2 y P_x12.
  2. Calcule el error cuadrático medio y=sqrt(suma(P_x12(y1,y2) - P_x1(y1) * P_x2(y2)).^2), donde (y1,y2) toma los valores de cada par en x12.
  3. si y es cercano a cero, significa que x1 y x2 son independientes.

Una forma sencilla de estimar una PDF a partir de una muestra es calcular el histograma de la muestra y luego normalizarlo para que la integral de la PDF sume 1. En la práctica, esto significa que hay que dividir los recuentos de las casillas del histograma por el factor h * sum(n), donde h es el ancho de la casilla y n es el vector del histograma.

Tenga en cuenta que el paso 3 de este algoritmo requiere que el usuario especifique un umbral para decidir si las señales son independientes.

2voto

Geoff Moller Puntos 335

Si se trata de hacer una prueba de independencia, es mejor utilizar una estadística bien desarrollada que inventar una nueva. Por ejemplo, puedes empezar calculando el Prueba de Chi-cuadrado . Por supuesto, la visualización de la diferencia entre el producto de los marginales y la unión te dará una buena visión, así que te animo a calcularla también.

2voto

farzad Puntos 4180

Se podría comparar la función de distribución empírica conjunta con el producto de las funciones de distribución empírica marginal. Para dos muestras x=(x1,,xn1) y y=(y1,,yn2) , dejemos que n=n1+n2 y definir la función de distribución empírica conjunta ˆFn(s,t)=1nn1i=1n2j=1I[xi,)×[yj,)(s,t). Las funciones de distribución empírica marginal de cada muestra son ˆGn1(s)=1n1n1i=1I[xi,)(s)andˆHn2(t)=1n2n2i=1I[yi,)(t). La idea es comparar ˆFn(s,t) con el producto ˆHn1(s)ˆGn2(t) utilizando alguna norma. Por ejemplo, se puede utilizar T(x,y)=sup Si pudiéramos conocer la distribución de T bajo la hipótesis de independencia, entonces tendríamos una forma de calcular un p -valor para este problema. No sé cómo se puede hacer esto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X