Estoy confundido acerca de la forma iterativa reponderadas menos plazas algoritmo utilizado para resolver para los coeficientes de regresión logística como se describe en la página 121 de Los Elementos de Aprendizaje Estadístico, 2ª Edición (Hastie, Tibshirani, Friedman, 2009).
El paso final del proceso, después de la colocación de una aproximación de Taylor de la log-verosimilitud de $N$ observaciones, es resolver los siguientes mínimos cuadrados ponderados problema:
$\beta^{new}\leftarrow argmin_{\beta}(\textbf{z}-\textbf{X}\beta)^T\textbf{W}(\textbf{z}-\textbf{X}\beta)$ $(1)$
encontrando $\frac{\delta[(\textbf{z}-\textbf{X}\beta)^T\textbf{W}(\textbf{z}-\textbf{X}\beta)]}{\delta\beta_j}$, establecimiento $\frac{\delta[(\textbf{z}-\textbf{X}\beta)^T\textbf{W}(\textbf{z}-\textbf{X}\beta)]}{\delta\beta_j}=0$, entonces la solución para $\beta_j^{new}$,
donde:
$\textbf{z}=\textbf{X}\beta^{old}+\textbf{W}^{-1}(\textbf{y}-\textbf{p})$,
$\textbf{W}=N\times{}N$ diagonal de la matriz de pesos con $i$th diagonal elemento $p(x_i;\beta^{old})(1-p(x_i;\beta^{old}))$,
$\textbf{p}=$vector de armarios probabilidades de con $i$elemento th $p(x_i;\beta^{old})$,
$\textbf{y}=$vector de $y_i$ de los valores,
$\textbf{X}=$matriz de $x_i$ de los valores,
$\beta=$vector de coeficientes de $\beta_0,\beta_1,...,\beta_p$.
En la parte derecha de la expresión (1), el $\beta$s falta alguno de superíndice. Es $\beta$ presume ser igual a $\beta^{old}$? Que es, a fin de resolver para $\beta_j^{new}$ (1) sustituimos en la actualización más reciente de $\beta$ para todos los valores de $\beta_{l\neq j}$ calculados en los pasos previos?