Mientras que la estimación es por sí mismo con el fin de proponer los valores de los parámetros desconocidos (por ejemplo, los coeficientes de regresión logística, o en la separación de hyperplane en máquinas de vectores soporte), la inferencia estadística, intenta adjuntar una medida de la incertidumbre y/o una probabilidad declaración a los valores de los parámetros (los errores estándar y los intervalos de confianza). Si el modelo que el estadístico se supone es aproximadamente correcto, a continuación, a condición de que los nuevos datos entrantes seguir para ajustarse a ese modelo, la incertidumbre declaraciones pueden tener algo de verdad en ellas, y proporcionar una medida de la frecuencia con la que cometer errores en el uso del modelo para tomar sus decisiones.
Las fuentes de la probabilidad de declaraciones son de dos tipos. A veces, uno puede asumir una distribución de probabilidad subyacente de lo que se está midiendo y con algunos matemáticos de la brujería (multivariante de la integración de una distribución de Gauss, etc.), obtener la distribución de probabilidad del resultado (la media de la muestra de la Gaussiana de datos es propio de Gauss). Conjugado de los priores de la estadística Bayesiana caer en la brujería categoría. Otras veces, uno tiene que confiar en la asintótica (muestra grande) resultados que indican que en la muestra lo suficientemente grandes, las cosas están obligados a comportarse de un modo determinado (el Teorema del Límite Central: la media de la muestra de los datos que se yo.yo.d. con una media de $\mu$ y la varianza $\sigma^2$ es de aproximadamente Gaussiana con media de $\mu$ y la varianza $\sigma^2/n$, independientemente de la forma de la distribución de los datos originales).
La más cercana que la de la máquina de aprendizaje llega a que es la cruz de la validación cuando la muestra se divide en el entrenamiento y la validación de las partes, con el último eficazmente diciendo, "si los nuevos datos se parece a los datos antiguos, pero es completamente distinto a los datos que se utiliza en la configuración de mi modelo, a continuación, un realista medida de la tasa de error es tal y tal". Se deriva totalmente empíricamente mediante la ejecución del mismo modelo en los datos, en lugar de tratar de inferir las propiedades del modelo, haciendo supuestos estadísticos y la participación de cualquiera de los resultados matemáticos como el de arriba CLT. Sin duda, ésta es más honesto, pero como se utiliza menos información y por lo tanto requiere de grandes tamaños de muestra. También, implícitamente asume que el proceso no cambia, y no hay ninguna estructura de los datos (como clúster o de series de tiempo de las correlaciones) que podría fluencia y romper la muy importante suposición de independencia entre el entrenamiento y la validación de datos.
Mientras que la frase "la inferencia de la posterior" puede tener sentido (no soy un Bayesiano, realmente no puedo decir lo que la terminología aceptada es), creo que no hay mucho que participan en la toma de cualquier supuestos en que inferencial paso. Todos los Bayesiano supuestos son: (1) en la previa y (2) en el supuesto del modelo, y una vez establecido, la parte posterior de la siguiente manera automática (al menos en teoría, mediante el teorema de Bayes; los pasos prácticos que puede ser helluvalot complicado, y Sipps Juego... disculpe, muestreo de Gibbs puede ser relativamente fácil componente de llegar a que la posterior). Si "la inferencia de la posterior" se refiere a (1) + (2), entonces es un sabor de la inferencia estadística para mí. Si (1) y (2) se indicarán por separado y, a continuación, "la inferencia de la posterior" es algo más, entonces no acabo de ver qué es ese algo que podría ser en la parte superior del teorema de Bayes.