Como ha señalado kjetil b halvorsen, es, a su manera, un milagro que la regresión lineal admita una solución analítica. Y esto es así sólo en virtud de la linealidad del problema (con respecto a los parámetros). En OLS, se tiene $$ \sum_i (y_i - x_i' \beta)^2 \to \min_\beta, $$ que tiene las condiciones de primer orden $$ -2 \sum_i (y_i - x_i'\beta) x_i = 0 $$ Para un problema con $p$ variables (incluyendo la constante, si es necesario - hay algunos problemas de regresión a través del origen, también), este es un sistema con $p$ ecuaciones y $p$ desconocidos. Lo más importante es que se trata de un sistema lineal, por lo que se puede encontrar una solución utilizando la norma teoría y práctica del álgebra lineal . Este sistema tendrá una solución con probabilidad 1 a menos que tenga variables perfectamente colineales.
Ahora, con la regresión logística, las cosas ya no son tan fáciles. Escribiendo la función de probabilidad logarítmica, $$ l(y;x,\beta) = \sum_i y_i \ln p_i + (1-y_i) \ln(1-p_i), \quad p_i = (1+\exp(-\theta_i))^{-1}, \quad \theta_i = x_i' \beta, $$ y tomando su derivada para encontrar la MLE, obtenemos $$ \frac{\partial l}{\partial \beta'} = \sum_i \frac{{\rm d}p_i}{{\rm d}\theta}\Bigl( \frac{y_i}{p_i} - \frac{1-y_i}{1-p_i} \Bigr)x_i = \sum_i \Bigl[y_i-\frac1{1+\exp(x_i'\beta)}\Bigr]x_i $$ Los parámetros $\beta$ entrar en esto de una manera muy no lineal: para cada $i$ , hay una función no lineal, y se suman. No hay solución analítica (excepto probablemente en una situación trivial con dos observaciones, o algo así), y hay que utilizar métodos de optimización no lineal para encontrar las estimaciones $\hat\beta$ .
Un examen más profundo del problema (tomando la segunda derivada) revela que se trata de un problema de optimización convexo que consiste en encontrar el máximo de una función cóncava (una parábola multivariable glorificada), por lo que o bien existe uno, y cualquier algoritmo razonable debería encontrarlo con bastante rapidez, o bien las cosas se disparan hasta el infinito. Esto último ocurre con la regresión logística cuando ${\rm Prob}[Y_i=1|x_i'\beta > c] = 1$ para algunos $c$ es decir, tienes una predicción perfecta. Este es un artefacto bastante desagradable: se podría pensar que cuando se tiene una predicción perfecta, el modelo funciona perfectamente, pero curiosamente es al revés.