4 votos

Distribución Binomial: Prueba de la razón de verosimilitud para la igualdad de varias proporciones

$\newcommand{\szdp}[1]{\!\left(#1\right)} \newcommand{\szdb}[1]{\!\left[#1\right]}$ Planteamiento del problema: Se realizó una encuesta sobre el sentimiento de los votantes en cuatro para comparar la fracción de votantes que favorecen al candidato $A.$ Muestras aleatorias de $200$ votantes en cada una de las cuatro circunscripciones. El número de votantes a favor de $A$ en las cuatro muestras puede considerarse como cuatro variables aleatorias binomiales independientes. Construya una prueba de razón de verosimilitud de la hipótesis de que las fracciones de votantes que favorecen al candidato $A$ son los mismos en las cuatro salas. Utilice $\alpha=0.05.$

Nota 1: Esto es esencialmente el ejercicio 10.88 en Estadística Matemática con Aplicaciones, 5ª Ed, por Wackerly, Mendenhall y Sheaffer.

Nota 2: He mirado varios hilos con la misma pregunta. Este hilo no tiene una respuesta viable. Este hilo tiene una solución hecha principalmente en R y no es una derivación teórica del resultado necesario. Este hilo no tiene ningún detalle: y como verás, estoy definitivamente en la maleza en este caso.

Nota 3: Esto es publicado de forma cruzada aquí .

Mi trabajo hasta ahora: Dejemos que $p_i$ sea la proporción de votantes a favor de $A$ en el pabellón $i.$ Así que la hipótesis nula es que $p_1=p_2=p_3=p_4,$ mientras que la hipótesis alternativa es que al menos una proporción es diferente de las demás. Tenemos $f$ como la subyacente subyacente: $$f(y_i)=\binom{n}{y_i}p_i^{y_i}(1-p_i)^{n-{y_i}}.$$ Se deduce que la función de probabilidad es $$L(p_1,p_2,p_3,p_4) =\prod_{i=1}^4\szdb{\binom{n}{y_i}p_i^{y_i}(1-p_i)^{n-y_i}}.$$ Entonces construimos $L\big(\hat\Omega_0\big)$ y $L\big(\hat\Omega\big).$ Nota que bajo la hipótesis nula, estableceremos $p_1=p_2=p_3=p_4=p.$ Por lo tanto, $$L\big(\hat\Omega_0\big) =\prod_{i=1}^4\szdb{\binom{n}{y_i}p^{y_i}(1-p)^{n-y_i}}.$$ El único parámetro restante $p$ lo sustituiremos por su MLE, que podemos decir con seguridad que es $\big(\sum y_i\big)/(4n).$ Por lo tanto, \begin{align*} L\big(\hat\Omega_0\big) &=\prod_{i=1}^4\szdb{\binom{n}{y_i}\szdp{\frac{\sum y_i}{4n}}^{\!\!y_i}\szdp{1-\frac{\sum y_i}{4n}}^{\!\!n-y_i}}\\ &=\frac{1}{(4n)^n}\prod_{i=1}^4\szdb{\binom{n}{y_i}\szdp{\sum y_i}^{\!y_i}\szdp{4n-\sum y_i}^{\!n-y_i}}. \end{align*} A continuación, nos centramos en $L\big(\hat\Omega\big):$ \begin{align*} L\big(\hat\Omega\big) &=\prod_{i=1}^4\szdb{\binom{n}{y_i}\szdp{\frac{y_i}{n}}^{\!y_i} \szdp{1-\frac{y_i}{n}}^{\!n-y_i}}\\ &=\prod_{i=1}^4\szdb{\binom{n}{y_i}\szdp{\frac{y_i}{n}}^{\!y_i} \szdp{\frac{n-y_i}{n}}^{\!n-y_i}}\\ &=\frac{1}{n^{4n}}\prod_{i=1}^4\szdb{\binom{n}{y_i}y_i^{y_i} \,\szdp{n-y_i}^{n-y_i}}. \end{align*} A continuación, formamos el cociente de probabilidades: \begin{align*} \lambda &=\frac{L\big(\hat\Omega_0\big)}{L\big(\hat\Omega\big)}\\ &=\frac{\displaystyle \frac{1}{(4n)^n}\prod_{i=1}^4\szdb{\binom{n}{y_i} \szdp{\sum y_i}^{\!y_i}\szdp{4n-\sum y_i}^{\!n-y_i}}} {\displaystyle \frac{1}{n^{4n}}\prod_{i=1}^4\szdb{\binom{n}{y_i}y_i^{y_i} \,\szdp{n-y_i}^{n-y_i}}}\\ &=\frac{n^{4n}}{4^n\,n^n}\cdot \prod_{i=1}^4\szdb{\szdp{\frac{\sum y_j}{y_i}}^{\!y_i}\, \szdp{\frac{4n-\sum y_j}{n-y_i}}^{\!n-y_i}}\\ &=\szdp{\frac{n^3}{4}}^{\!\!n}\cdot \prod_{i=1}^4\szdb{\szdp{\frac{\sum y_j}{y_i}}^{\!y_i}\, \szdp{\frac{4n-\sum y_j}{n-y_i}}^{\!n-y_i}}. \end{align*}

Mis preguntas:

  1. Esto me parece mal, porque me dicen (y tiene todo el sentido) que $0\le\lambda\le 1,$ mientras que todo lo que está a la vista es mayor que $1.$
  2. Suponiendo que se pueda salvar esta expresión, ¿cuáles son los siguientes pasos? ¿Debo tomar los registros y tratar de simplificar de alguna manera?
  3. Espero poder obtener una prueba algo así como $$\frac{(1/(4n))\sum_{j=1}^ny_j-\sum_{j=1}^n(y_j/n)}{\displaystyle\sqrt{\sum_{j=1}^4\dfrac{(y_j/n)(1-y_j/n)}{n}}},$$ aunque esta prueba no me parece lo suficientemente sensible. Podríamos tener $y_1/n$ demasiado baja, y $y_4/n$ demasiado alta, y esta prueba podría seguir marcándolas como iguales porque "promedian" lo correcto. ¿Cuál es la generalización correcta de la prueba estándar de diferencia de proporciones?

3voto

Aaron Puntos 36

Tienes un pequeño error en el álgebra de tu post. Usando tu notación, deberías tener:

$$\begin{align*} L ( \hat{\Omega}_0) &= \frac{1}{(4n)^{4n}} \prod_{i=1}^4 \Bigg[ {n \choose y_i} (\sum y_i)^{y_i} (4n-\sum y_i)^{n-y_i} \Bigg], \\[12pt] L (\hat{\Omega}) &= \frac{1}{n^{4n}} \prod_{i=1}^4 \Bigg[ {n \choose y_i} y_i^{y_i} (n- y_i)^{n-y_i} \Bigg]. \\[12pt] \end{align*}$$

(Así que tu constante al frente de la primera expresión es incorrecta.) Deberías entonces obtener:

$$\begin{align*} \lambda \equiv \frac{L(\hat{\Omega}_0)}{L(\hat{\Omega})} &= \frac{1}{4^{4n}} \prod_{i=1}^4 \frac{(\sum y_i)^{y_i} (4n-\sum y_i)^{n-y_i}}{y_i^{y_i} (n- y_i)^{n-y_i}} \\[6pt] &= \prod_{i=1}^4 \bigg( \frac{\sum y_i}{4y_i} \bigg)^{y_i} \bigg( \frac{4n-\sum y_i}{4n-4y_i} \bigg)^{n-y_i}, \\[6pt] \end{align*}$$

que satisface la restricción $0 \leqslant \lambda \leqslant 1$ .


Una derivación alternativa para el caso generalizado: Intentemos simplificar estas funciones de probabilidad tanto como podamos para minimizar la carga notacional de las matemáticas. Voy a hacer una versión generalizada del problema en la que uso $k$ grupos y no asumo que cada muestra tiene el mismo tamaño. Por lo tanto, dejaré que $y_1,...,y_k$ sean los totales de la muestra (que favorecen al candidato $A$ ) y $n_1,...,n_k$ sean los respectivos tamaños de las muestras, con $\mathbf{p}=(p_1,...,p_k)$ siendo el vector desconocido de probabilidades verdaderas. También dejamos que $y \equiv \sum y_i$ y $n \equiv \sum n_i$ son el total y el tamaño de la muestra conjunta, respectivamente.

Es sencillo establecer que el MLE para el parámetro de probabilidad para datos binomiales es la proporción de la muestra. En consecuencia, sin la hipótesis nula, la log-verosimilitud maximizada es: $^\dagger$

$$\begin{align} \hat{\ell}_{\mathbf{y},A} &= \sum_{i=1}^k \log \text{Bin} \Big( y_i \Big| n_i,\frac{y_i}{n_i} \Big) \\[6pt] &= \sum_{i=1}^k \Bigg[ \log {n_i \choose y_i} + y_i \log \bigg( \frac{y_i}{n_i} \bigg) + (n_i-y_i) \log \bigg( \frac{n_i-y_i}{n_i} \bigg) \Bigg] \\[6pt] &= \sum_{i=1}^k \Bigg[ \log {n_i \choose y_i} + y_i \log ( y_i ) + (n_i-y_i) \log (n_i-y_i) - n_i \log(n_i) \Bigg]. \\[6pt] \end{align}$$

Cuando condicionamos la hipótesis nula tenemos la log-verosimilitud maximizada:

$$\begin{align} \hat{\ell}_{\mathbf{y}, 0} &= \sum_{i=1}^k \log \text{Bin} \Big( y_i \Big| n_i,\frac{y}{n} \Big) \\[6pt] &= \sum_{i=1}^k \log {n_i \choose y_i} + y \log \bigg( \frac{y}{n} \bigg) + (n-y) \log \bigg( \frac{n-y}{n} \bigg) \\[6pt] &= \sum_{i=1}^k \log {n_i \choose y_i} + y \log (y) + (n-y) \log (n-y) - n \log (n). \quad \quad \quad \quad \quad \ \ \\[6pt] \end{align}$$

Por lo tanto, podemos escribir el estadística de la razón de verosimilitud como:

$$\begin{align} \Delta_\text{LR}(\mathbf{y}) &\equiv 2 (\hat{\ell}_{\mathbf{y}, A} - \hat{\ell}_{\mathbf{y},0}) \\[12pt] &= 2 \sum_{i=1}^k \Bigg[ \log {n_i \choose y_i} + y_i \log ( y_i ) + (n_i-y_i) \log (n_i-y_i) - n_i \log(n_i) \Bigg] \\[6pt] &\quad \quad - 2 \Bigg[ \sum_{i=1}^k \log {n_i \choose y_i} + y \log (y) + (n-y) \log (n-y) - n \log (n) \Bigg] \\[6pt] &= 2 \sum_{i=1}^k \Bigg[ y_i \log \bigg( \frac{y_i}{y} \bigg) + (n_i-y_i) \log \bigg( \frac{n_i-y_i}{n-y} \bigg) - n_i \log \bigg( \frac{n_i}{n} \bigg) \Bigg]. \\[6pt] \end{align}$$

Desde $\hat{\ell}_{\mathbf{y}, A} \geqslant \hat{\ell}_{\mathbf{y}, 0}$ este estadístico de ratio de probabilidad será no negativo. La prueba de la razón de verosimilitud se obtiene encontrando un punto de corte para este estadístico, por encima del cual se rechaza la hipótesis nula.


$^\dagger$ En estas ecuaciones utilizamos $\text{Bin}$ para denotar el función de masa binomial .

1voto

manku Puntos 111

Continúa el comentario. Una aproximación razonable a la prueba de razón de verosimilitud es una prueba de homogeneidad chi-cuadrado para una tabla de contingencia. Existen dos implementaciones esencialmente equivalentes de Usando los datos de w-M-S, 6e, Ejercicio 10.94, muestro los resultados de cada una. [Los recuentos son lo suficientemente grandes como para que los resultados sean similares a los de la prueba LR].

Datos. Los pabellones son filas, Favor y No son columnas.

TBL = cbind(c(76,53,59,48), 
            c(123,147,141,153))
TBL
     [,1] [,2]
[1,]   76  123
[2,]   53  147
[3,]   59  141
[4,]   48  153

En R, el procedimiento prop.test utiliza un estadístico de chi-cuadrado aproximado para comparar las cuatro proporciones a favor para las cuatro filas de TBL . La hipótesis nula de que las proporciones reales son las mismas en los cuatro distritos se rechaza de forma contundente al nivel del 5% (valor P en torno al 1%).

 prop.test(TBL)

    4-sample test for equality of proportions 
    without continuity correction

data:  TBL
X-squared = 11.145, df = 3, p-value = 0.01097
alternative hypothesis: two.sided
sample estimates:
   prop 1    prop 2    prop 3    prop 4 
0.3819095 0.2650000 0.2950000 0.2388060 

La prueba de chi-cuadrado de Pearson sobre la heterogeneidad da la misma estadística de chi-cuadrado y el mismo valor P.

    chisq.test(TBL)

            Pearson's Chi-squared test

    data:  TBL
    X-squared = 11.145, df = 3, p-value = 0.01097

Las proporciones a favor parecen ser las mismas en los distritos 2, 3 y 4. Un ad hoc no encuentra diferencias significativas entre ellos.

chisq.test(TBL[2:4,])

        Pearson's Chi-squared test

data:  TBL[2:4, ]
X-squared = 1.6228, df = 2, p-value = 0.4442

En cambio, un ad hoc chisq.test` del Distrito 1 frente a los otros tres distritos (sin la corrección de Yates debido a los grandes recuentos) encuentra una diferencia altamente significativa.

chisq.test(TBL2, cor=F)

       Pearson's Chi-squared test

data:  TBL2
X-squared = 9.6204, df = 1, p-value = 0.001924

Prueba exacta de Fisher (ad hoc) también encuentra una diferencia significativa en torno al nivel del 1%.

fisher.test(TBL)

        Fisher's Exact Test 
        for Count Data

data:  TBL
p-value = 0.01226
alternative hypothesis: two.sided

1voto

mehturt Puntos 13

A continuación, voy a utilizar los números suministrados en el ejercicio. La hipótesis nula es $H_0:p_1=p_2=p_3=p_4=p$ . Como has escrito, la función de probabilidad es $$ L(\mathbb{p})=\prod_{i=1}^4{200\choose y_i}p_i^{y_i}(1-p_i)^{200-y_i} $$ donde $y_i$ son el número de votantes a favor de $A$ en la sala $i$ . En $H_0$ el MLE de $p$ es $\hat{p}=\sum_{i=1}^{4}y_i/800$ . De lo contrario, tenemos $\hat{p}_i=y_i/200$ para $i=1, 2, 3, 4$ . Introduciendo estos datos en la función de probabilidad y formando el cociente, obtenemos $$ \lambda = \dfrac{\left(\dfrac{\sum y_i}{800}\right)^{\sum y_i}\left(1 - \dfrac{\sum y_i}{800}\right)^{800 - \sum y_i}}{\prod_{i=1}^{4}\left(\dfrac{y_i}{200}\right)^{y_i}\left(1 - \dfrac{y_i}{200}\right)^{200 - y_i}}. $$ Según el teorema 10.2 del libro, para grandes $n$ , $-2\log(\lambda)$ tiene aproximadamente un $\chi^2$ distribución con $\nu$ grados de libertad cuando $H_0$ es verdadera, donde $\nu$ es la diferencia entre el número de parámetros que varían libremente en $\Omega$ y el número de tales parámetros en $\Omega_0$ . Aquí tenemos $4 - 1 = 3$ grados de libertad.

Utilizando los datos proporcionados en el libro, tenemos $y_1 = 76, y_2 = 53, y_3 = 59, y_4 = 48$ . Según la fórmula anterior, obtengo $-2\log(\lambda)=10.54$ y un $p$ -valor de $0.015$ . Esto es muy similar a lo que R s prop.test da:

y <- c(76, 53, 59, 48)
prop.test(y, rep(200, 4), correct = FALSE)

X-squared = 10.722, df = 3, p-value = 0.01333
alternative hypothesis: two.sided
sample estimates:
prop 1 prop 2 prop 3 prop 4 
 0.380  0.265  0.295  0.240

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X