Hay una considerable superposición entre estos, pero algunos pueden hacerse distinciones. De necesidad, voy a tener a la sobre-simplificar algunas cosas o corto-atención a los demás, pero voy a hacer mi mejor esfuerzo para dar algún sentido de estas áreas.
En primer lugar, la Inteligencia Artificial es bastante distinto del resto. La IA es el estudio de cómo crear agentes inteligentes. En la práctica, es la forma de cómo programar un ordenador para comportarse y realizar una tarea como un agente inteligente (es decir, una persona) lo haría. Esto no tiene que implicar el aprendizaje o la inducción a todos, sólo puede ser un camino para construir una mejor trampa para ratones'. Por ejemplo, aplicaciones de la AI han incluido en programas de seguimiento y control de los procesos en curso (por ejemplo, aumentar el aspecto de Un si parece demasiado bajo). Aviso de que la IA puede incluir maldito-cerca de cualquier cosa que una máquina hace, siempre y cuando no lo hace 'estúpida'.
En la práctica, sin embargo, la mayoría de las tareas que requieren inteligencia requieren una capacidad para inducir nuevos conocimientos a partir de experiencias. Por lo tanto, una gran área dentro de la IA es la máquina de aprendizaje. Esto implica el estudio de los algoritmos que se puede extraer información de forma automática (es decir, sin en-línea humana de orientación). Es ciertamente el caso de que algunos de estos procedimientos se incluyen ideas se derivan directamente de la, o de inspiración, estadística clásica, pero no tiene que ser. De manera similar a la IA de la máquina, el aprendizaje es muy amplio y puede incluir casi todo, siempre hay algún componente inductivo. Un ejemplo de una máquina algoritmo de aprendizaje puede ser un filtro de Kalman.
La minería de datos es un área que ha tomado mucho de su inspiración y técnicas de aprendizaje de máquina (y algunos, también, a partir de las estadísticas), pero se puso a diferentes extremos. La minería de datos es llevada a cabo por una persona, en una situación específica, en un determinado conjunto de datos, con un objetivo en mente. Normalmente, esta persona quiere aprovechar el poder de las diversas técnicas de reconocimiento de patrón que se han desarrollado en el aprendizaje de máquina. Muy a menudo, el conjunto de datos es enorme, complicada, y/o pueden tener problemas especiales (tales como que hay más variables que observaciones). Generalmente, el objetivo es descubrir y generar algunas de las conclusiones preliminares en un área donde realmente hubo un poco de conocimiento de antemano, o ser capaz de predecir las futuras observaciones con precisión. Por otra parte, la minería de datos procedimientos de la 'supervisión' (no sabemos la respuesta-descubrimiento) o "supervisión" (sabemos la respuesta-predicción). Tenga en cuenta que el objetivo general es no desarrollar una comprensión más sofisticada de los datos subyacentes proceso de generación. Común de técnicas de minería de datos podría incluir los análisis de agrupamiento, árboles de clasificación y regresión, y las redes neuronales.
Supongo que no necesito decir mucho para explicar lo de las estadísticas es en este sitio, pero tal vez me puede decir un par de cosas. Estadística clásica (aquí me refiero a frecuentista y Bayesiana) es un sub-tema dentro de las matemáticas. Pienso en ella como en gran parte de la intersección de lo que sabemos acerca de la probabilidad y de lo que sabemos acerca de la optimización. Aunque la estadística matemática puede ser estudiado como un Platónico objeto de investigación, que en su mayoría es entendido como más práctico y aplicado en el carácter de otros, enrareciendo las áreas de las matemáticas. Como tal (y, en particular, en contraste a la minería de datos), es en su mayoría empleados hacia una mejor comprensión de algunos de los datos de proceso de generación. Por lo tanto, por lo general comienza con una formalmente especificado el modelo, y a partir de este se derivan los procedimientos para extraer con precisión que el modelo de ruidoso casos (es decir, la estimación--mediante la optimización de algunos de la pérdida de la función) y ser capaces de distinguir de otras posibilidades (es decir, inferencias basadas en el conocimiento de las propiedades de la distribución de muestras). El prototipo de estadística es la técnica de regresión.