4 votos

¿Es válida esta hipótesis alternativa?

¿Podría alguien comprobar que la hipótesis alternativa tiene sentido? Quería demostrar que la "distancia de Mahalanobis ( $\mathbf{(x_i - \bar{x})^T \Sigma^{-1}(x_i - \bar{x})}$ )" es un estadístico de la prueba de la razón de verosimilitud de los logaritmos.

Para validar la siguiente hipótesis, (todas las notaciones son vectoriales)

\begin{cases} H_0 : \mathbf{x_i} \sim N(\mathbf{x_i} | \mathbf{\mu, \Sigma}) \\ H_1 : \mathbf{x_i} \sim N(\mathbf{x_i} | \mathbf{\mu + \delta_i, \Sigma}),\;\; \mathbf{\delta_i := (x_i - \bar{x})} \end{cases}

He utilizado la prueba de la razón de verosimilitud logarítmica (LRT) de la siguiente manera.

\begin{split} \lambda_i &= \log \left( \frac{ N(\mathbf{x_i} | \mathbf{\mu + \delta_i, \Sigma} ) }{N(\mathbf{x_i} | \mathbf{\mu, \Sigma} )} \right) \\ &= -\frac{1}{2} \left( (\mathbf{x_i - \mu - \delta_i})^T\mathbf{\Sigma}^{-1}(\mathbf{x_i - \mu - \delta_i}) - (\mathbf{x_i - \mu})^T \mathbf{\Sigma}^{-1}(\mathbf{x_i - \mu})\right) \\ &= -\frac{1}{2} \left( \mathbf{\delta_i}^T \mathbf{\Sigma}^{-1}\mathbf{\delta_i} - 2(\mathbf{x_i - \bar{x}})^T\mathbf{\Sigma}^{-1}\mathbf{\delta_i} \right)\\ & \approx \frac{1}{2} (\mathbf{x-\bar{x}})^T \mathbf{\Sigma}^{-1}(\mathbf{x-\bar{x}}) \end{split}

Una cosa que no puedo asegurar es que la hipótesis alternativa (H1) pueda tener esa forma (dependiente a xi). ¿Es válida la formulación de la prueba de hipótesis anterior?

0voto

confused_dragon Puntos 189

He hecho lo siguiente con $n$ observaciones, pero si se establece $n=1$ se obtiene exactamente lo que se tiene.

Las pruebas de hipótesis se refieren a los parámetros, no a los datos. \begin{equation} \begin{cases} H_0 : \mathbf{\mu} = \mathbf{\mu}_0 \\ H_a : \mathbf{\mu} \neq \mathbf{\mu}_0 \end{cases} \end{equation} Arriba estamos probando la hipótesis de que los datos surgen de una distribución normal multivariada con parámetro de media, $\mathbf{\mu}$ , igual a $\mathbf{\mu}_0$ contra la alternativa de dos lados que el parámetro de la media, $\mathbf{\mu}$ no es igual a $\mathbf{\mu}_0$ . Ahora, también podemos suponer que el parámetro de covarianza, $\mathbf{\Sigma}$ es conocido o desconocido. En lo que sigue voy a suponer que es conocida. Así que bajo la hipótesis nula o asumiendo que la hipótesis nula es verdadera tenemos que $X_i \backsim N_p( \mathbf{\mu_0, \Sigma})$ para $i=1,\ldots,n$ . La distribución normal tiene una función de densidad igual a $$\phi_p( \mathbf{x} |\mathbf{\mu, \Sigma}) = (2 \pi )^{-p/2} | \mathbf{\Sigma}|^{-1/2} \exp\left\{ - \frac{1}{2} ( \mathbf{x} - \mu)^T \Sigma^{-1} ( \mathbf{x} - \mu) \right\} $$

Ahora, recogemos algunos datos $x_1, \ldots, x_n$ que se suponen independientes y siguen una $N_p( \mathbf{\mu_0, \Sigma})$ . La probabilidad bajo el nulo es \begin{equation*} \begin{split} &= \mathcal{L}( \mu_0 | x_1, \ldots, x_n) \\ &= \prod_{i=1}^N (2 \pi )^{-p/2} | \mathbf{\Sigma}|^{-1/2} \exp\left\{ - \frac{1}{2} ( \mathbf{x}_i - \mathbf{ \mu}_0)^T \Sigma^{-1} ( \mathbf{x}_i - \mathbf{ \mu}_0) \right\} \\ & = (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \sum_{i=1}^n \mbox{tr}\left[ ( \mathbf{x}_i - \mathbf{\mu}_0)^T \Sigma^{-1} ( \mathbf{x}_i - \mathbf{ \mu}_0) \right] \right\} \\ & = (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2}\sum_{i=1}^n \mbox{tr}\left[ \Sigma^{-1} ( \mathbf{x}_i - \mathbf{ \mu}_0) ( \mathbf{x}_i - \mathbf{\mu}_0)^T \right] \right\} \\ & = (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2}\sum_{i=1}^n \mbox{tr}\left[ \Sigma^{-1} ( \mathbf{x}_i - \overline{\mathbf{x}} +\overline{\mathbf{x}} - \mathbf{ \mu}_0) ( \mathbf{x}_i - \overline{\mathbf{x}} +\overline{\mathbf{x}} - \mathbf{\mu}_0)^T \right] \right\} \\ & = \ldots \\ & = (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] - \frac{n}{2} \mbox{tr} \left[ \Sigma^{-1} ( \overline{\mathbf{x}} - \mathbf{\mu}_0) ( \overline{\mathbf{x}} - \mathbf{\mu}_0)^T \right] \right\} \\ & = (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] - \frac{n}{2} ( \overline{\mathbf{x}} - \mathbf{\mu}_0)^T \Sigma^{-1} ( \overline{\mathbf{x}} - \mathbf{\mu}_0) \right\} \\ \end{split} \end{equation*} donde $\mathbf{S} = \sum_{i=1}^n ( \mathbf{x}_i - \overline{\mathbf{x}}) ( \mathbf{x}_i - \overline{\mathbf{x}})^T$ y $\overline{\mathbf{x}} = \frac{1}{n}\sum_{i=1}^n \mathbf{x}_i $ . Recordemos que bajo el nulo suponemos que conocemos el parámetro de la media $\mathbf{ \mu}$ y que es igual a $\mathbf{ \mu}_0$ .

Ahora, bajo la alternativa de no conocer el parámetro medio $\mathbf{ \mu}$ y hay que estimar utilizando el principio de máxima verosimilitud. Es decir $$ \max_{\mathbf{ \mu} \in \mathbb{R}^p } \mathcal{L}( \mu | x_1, \ldots, x_n) $$ La máxima probabilidad resulta ser $ \overline{\mathbf{x}}$ . Es decir, $\mathbf{ \mu}= \overline{\mathbf{x}}$ por lo que en la alternativa tenemos \begin{equation*} \begin{split} \mathcal{L}( \mathbf{ \mu} = \overline{\mathbf{x}} | x_1, \ldots, x_n) &= (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] - \frac{n}{2} ( \overline{\mathbf{x}} - \overline{\mathbf{x}} )^T \Sigma^{-1} ( \overline{\mathbf{x}} - \overline{\mathbf{x}}) \right\} \\ &= (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] \right\} \end{split} \fin{ecuación*}

Por último, la prueba de la razón de verosimilitud logarítmica (LRT) es la relación entre la función de verosimilitud bajo la hipótesis nula y la función de verosimilitud bajo la hipótesis alternativa \begin{equation*} \begin{split} \lambda &= - 2 \log \left( \frac{ \mathcal{L}( \mu_0 | x_1, \ldots, x_n) }{\mathcal{L}( \mathbf{\mu} = \overline{\mathbf{x}} | x_1, \ldots, x_n) } \right) \\ &= - 2 \log \left( \frac{ (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] - \frac{n}{2} ( \overline{\mathbf{x}} - \mathbf{\mu}_0)^T \Sigma^{-1} ( \overline{\mathbf{x}} - \mathbf{\mu}_0) \right\} }{ (2 \pi )^{-pn/2} | \mathbf{\Sigma}|^{-n/2} \exp\left\{ - \frac{1}{2} \mbox{tr}\left[ \Sigma^{-1}\mathbf{S} \right] \right\} } \right) \\ &= - 2 \log \left( \exp\left\{ - \frac{n}{2} ( \overline{\mathbf{x}} - \mathbf{\mu}_0)^T \Sigma^{-1} ( \overline{\mathbf{x}} - \mathbf{\mu}_0) \right\} \right) \\ &= n ( \overline{\mathbf{x}} - \mathbf{\mu}_0)^T \Sigma^{-1} ( \overline{\mathbf{x}} - \mathbf{\mu}_0) \end{split} \end{equation*}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X