Algunos buenos recursos sobre esto serían cualquier texto introductorio de cálculo vectorial. Intentaré ser lo más consistente posible con el Cálculo de Stewart, quizás el libro de cálculo más popular en América del Norte.
El Gradiente
Sea $f: \mathbb{R}^n \rightarrow \mathbb{R}$ un campo escalar. El gradiente, $\nabla f: \mathbb{R}^n \rightarrow \mathbb{R}^n$ es un vector, tal que $(\nabla f)_j = \partial f/ \partial x_j$. Debido a que cada punto en $\text{dom}(f)$ se mapea a un vector, entonces $\nabla f$ es un campo vectorial.
El Jacobiano
Sea $\operatorname{F}: \mathbb{R}^n \rightarrow \mathbb{R}^m$ un campo vectorial. El Jacobiano puede ser considerado como la derivada de un campo vectorial. Considerando cada componente de $\mbox{F}$ como una función única (como $f$ arriba), entonces el Jacobiano es una matriz en la que la $i^{th}$ fila es el gradiente de la $i^{th}$ componente de $\operatorname{F}$. Si $\mathbf{J}$ es el Jacobiano, entonces
$$\mathbf{J}_{i,j} = \dfrac{\partial \operatorname{F}_i}{\partial x_j}$$
El Hessiano
Simplemente, el Hessiano es la matriz de segundas derivadas mixtas de un campo escalar.
$$\mathbf{H}_{i, j}=\frac{\partial^{2} f}{\partial x_{i} \partial x_{j}}$$
En resumen:
-
Gradiente: Vector de primeras derivadas de un campo escalar
-
Jacobiano: Matriz de gradientes para componentes de un campo vectorial
-
Hessiano: Matriz de segundas derivadas mixtas de un campo escalar.
Ejemplo
La pérdida por error cuadrado $f(\beta_0, \beta_1) = \sum_i (y_i - \beta_0 - \beta_1x_i)^2$ es un campo escalar. Mapeamos cada par de coeficientes a un valor de pérdida.
-
El gradiente de este campo escalar es $$\nabla f = \left< -2 \sum_i( y_i - \beta_0 - \beta_1x_i), -2\sum_i x_i(y_i - \beta_0 - \beta_1x_i) \right>$$
-
Ahora, cada componente de $\nabla f$ es en sí mismo un campo escalar. Toma gradientes de esos y establece que sean filas de una matriz y tendrás el Jacobiano
$$ \left[\begin{array}{cc} \sum_{i=1}^{n} 2 & \sum_{i=1}^{n} 2 x_{i} \\ \sum_{i=1}^{n} 2 x_{i} & \sum_{i=1}^{n} 2 x_{i}^{2} \end{array}\right]$$
- El Hessiano de $f$ es el mismo que el Jacobiano de $\nabla f$. Te convendría demostrar esto por ti mismo.
Recursos: Cálculo: Trascendentes tempranas por James Stewart, o ediciones anteriores, así como Wikipedia que es sorprendentemente bueno para estos temas.
14 votos
Esta es una pregunta sobre cálculo vectorial básico que en esencia no tiene nada que ver con machine learning (o estadística, para el caso).
3 votos
@jhin: tal vez deberías editar para eliminar el aprendizaje automático del título y como etiqueta, ¿pero también considerar migrar a Mathematics StackExchange?