2 votos

Prueba de hipótesis usando la prueba de razón de verosimilitud

¿Cómo puedo aplicar la prueba de razón de verosimilitud cuando tengo la siguiente hipótesis para el descubrimiento de colocaciones:

$$H_{1}: P(w^{2}|w^{1}) = p = P(w^{2}| \neg w^{1})$$ $$H_{2}: P(w^{2}|w^{1}) = p_1 \neq p_{2} = P(w^{2}| \neg w^{1})$$

Básicamente, $H_{1}$ describe la hipótesis de que la segunda palabra ($w^{2}$) en una posible colocación es independiente de la primera ($w^{1}$) y $H_{2}$ es lo opuesto, que la segunda palabra depende de la primera.

Se asume que estos bigramas siguen una distribución binomial $$b(k;n,x) = \displaystyle \binom{n}{k}x^{k}(1-x)^{(n-k)}$$

Sin embargo, el libro que estoy siguiendo dice que la verosimilitud para $H_{1}$ es $$L(H_{1})=b(c_{12};c_{1},p)b(c_{2}-c_{12};N-c_{1},p)$$ y para $H_{2}$ es $$L(H_{2})=b(c_{12};c_{1},p_{1})b(c_{2}-c_{12};N-c_{1},p_{2})$$

donde $c_{1}$, $c_{2}$ y $c_{12}$ es el número de ocurrencias de $w^{1}$, $w^{2}$ y $w^{1}w^{2}$, respectivamente.

¿Por qué es ese el caso? Entiendo que la verosimilitud se define como $L(p, x)$ donde $p$ es un parámetro dado y $x$ es alguna observación o dato, lo cual es la pregunta opuesta a la que se haría al tratar con una función de probabilidad de masa $f(x, p)$, es decir, la probabilidad de tener $x$ dado cierto parámetro $p$. Además, también sé que cuando tenemos una función de probabilidad de masa de una serie de observaciones $f(x_{i}, p)$ entonces, asumiendo que las observaciones son independientes entre sí, la verosimilitud de un parámetro $p$ dado esas observaciones es $L(p, x_{i}) = \prod_{i} f(x_{i}, p) $, pero no comprendo por qué el ejemplo descrito anteriormente aparentemente está multiplicando la probabilidad de obtener un $w^{1}w^{2}$ y $\neg w^{1}w^{2}$ en ambas hipótesis. ¿Puede alguien explicarme eso?

3voto

bhagyas Puntos 101

Puedes pensar en la verosimilitud como la probabilidad de los eventos observados (solo considerados como una función de parámetros, tal como se indica).

En tu expresión $L(H_1)$, el primer término $b(c_{12}; c_1,p)$ representa la probabilidad para el número de ocurrencias observadas de la segunda palabra después de la primera en tus datos (es la probabilidad del número de ocurrencias de ambas palabras juntas $c_{12}$, dado que la primera palabra $c_1$ ocurre).

El segundo término $b(c_2-c_{12};N-c_1,p)$ representa la probabilidad para el número de ocurrencias observadas de la segunda palabra $c_2$ dado que la primera palabra no la antecede.

En este modelo se asume que estos dos eventos son independientes bajo ambas hipótesis. Pero en $H_1$, ocurren con el mismo parámetro de éxito $p$, mientras que en $H_2$ se les permite ocurrir con diferentes parámetros de éxito $p_1$ y $p_2$.

Dado que ambos términos en $L(H_1)$ y $L(H_2)$ son probabilidades para eventos observados, y se asume que los dos grupos de eventos son independientes entre sí (ya sea que compartan o no un parámetro común), la verosimilitud de que ambos grupos de eventos ocurran implica multiplicar los dos términos juntos en ambos casos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X