3 votos

¿Cómo representar el estimador logístico en forma de matriz?

Dado que $X$ es el $n \times k$ matriz que contiene n observaciones de k variables independientes, $Y$ es un $n \times 1$ que contiene n observaciones de la variable dependiente, sabemos que el estimador MCO puede representarse como

$\widehat{\beta}_{OLS} = (X'X)^{-1}X'Y$

Pero, ¿cómo representamos el estimador para logit? ¿Debería ser algo como

$\sigma(X'X)^{-1} \sigma(X'Y) \ $ o $\ \sigma( \ (X'X)^{-1} X'Y \ )$

donde la función logística $\sigma(\cdot)$ es la función de enlace

6voto

EdM Puntos 5716

En general, no existe una solución de forma cerrada para una regresión logística que corresponda al estimador MCO de los coeficientes de regresión, como usted parece desear. Véase este hilo para debatir. Desde esa perspectiva, no hay respuesta a su pregunta.

Sin embargo, existe una solución de forma cerrada cuando todos los predictores son categóricos . Si la matriz de diseño $X$ se codifica además de una manera particular, con variables binarias ortogonales, entonces existe una solución cercana a la forma que buscas. Esta presentación sigue Lipovetsky Journal of Applied Statistics, 42: 37-49 (2015).

En primer lugar, la matriz de diseño $X$ debe representar a cada combinación En segundo lugar, lo más sencillo es empezar tratando todos esos predictores binarios distintos como si tuvieran coeficientes separados, omitiendo un intercepto y volviendo a transformar a la forma habitual. Cada fila de la matriz de diseño tiene entonces una única entrada no nula de 1, en la columna que representa su combinación particular de valores predictores.

En esa forma, $X'Y$ es un vector de recuentos, para cada predictor binario $j$ de casos que tienen $Y=1$ o $N_{j1}$ La matriz $X'X$ es diagonal, con el elemento $jj$ el número total de casos con predictor binario $j$ independientemente del valor de $Y$ o $(N_{j0} + N_{j1})$ . Entonces los elementos del vector $(X'X)^{-1}X'Y$ son las probabilidades estimadas de máxima verosimilitud de $Y=1$ para cada predictor binario $j$ o

$$\hat p_j = \frac{N_{j1}}{N_{j0} + N_{j1}},$$

la fracción de casos que tienen $Y=1$ cuando el predictor es $j$ . De esta forma, $\text{logit}\left((X'X)^{-1}X'Y\right)$ (hecho elemento a elemento) da coeficientes $c_j$ que representa las probabilidades logarítmicas de $Y=1$ para cada predictor $j$ . Como dice Lipovetsky, esto:

... modelo sin intercepto presenta el impacto absoluto de cada categoría en el resultado binario, mientras que un modelo relacionado con intercepto presenta el impacto relativo de cada categoría frente a una tomada como referencia.

Para transformar a esta última representación estándar, elija la última combinación de predictores $K$ como referencia, establezca el intercepto $b_0 = c_K$ y escriba los demás coeficientes de regresión logística como $b_j = c_j - c_K$ . A continuación, Lipovetsky muestra cómo derivar errores estándar para coeficientes y desviaciones.


*No estoy seguro de que esto funcione si no están presentes en el conjunto de datos todas las combinaciones posibles de categorías predictoras.

** Tenga en cuenta que $\text{logit}(X'Y)$ como en tu primera sugerencia no tendría sentido, ya que esos valores son recuentos y no probabilidades.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X