17 votos

¿Siempre utilizamos la estimación de máxima verosimilitud?

Me pregunto si estimación de máxima verosimilitud usado en estadística. Aprender el concepto de la misma, pero me pregunto cuando realmente se utiliza. Si asumimos que la distribución de los datos, nos encontramos con dos parámetros, uno para la media y otro para la varianza, pero lo realmente utilice en situaciones reales?

¿Alguien me puede decir un caso simple en el que se utiliza para?

26voto

AdamSane Puntos 1825

Me pregunto si la estimación de máxima verosimilitud nunca se utiliza en las estadísticas.

Sin duda! Mucho, en realidad -, pero no siempre.

Aprendemos el concepto de la misma, pero me pregunto cuándo se utiliza realmente.

Normalmente, cuando la gente tiene una paramétrico de la distribución de la modelo, que puede muy a menudo elegir el uso de la estimación de máxima verosimilitud (cuando el modelo es correcto, hay una serie de útiles propiedades de los estimadores de máxima verosimilitud).

[Que no es una relación exhaustiva de máxima verosimilitud en la estimación, pero sería el caso más común]

Para un ejemplo-el uso de modelos lineales generalizados es bastante amplia y en ese caso los parámetros que describen la media se estima por máxima verosimilitud.

[Puede suceder que algunos parámetros son estimados por máxima verosimilitud y otros no lo son.]

Si asumimos que la distribución de los datos, nos encontramos con dos parámetros

Bueno, a veces usted puede tener dos, pero a veces tiene un parámetro, a veces tres o cuatro o más.

uno para la media y la una de la varianza,

¿Estás pensando en un modelo en particular tal vez? Este no es siempre el caso. Considere la posibilidad de estimar el parámetro de una distribución exponencial o una distribución de Poisson, o una distribución binomial. En cada uno de esos casos, no hay un parámetro y la varianza es una función del parámetro que describe la media.

O considere la posibilidad de una distribución gamma generalizada, que tiene tres parámetros. O una de cuatro parámetro de la distribución beta, que (tal como era de esperar) de cuatro parámetros. Tenga en cuenta también que (dependiendo de las particularidades de la parametrización) la media o la varianza o ambos no puede ser representada por un solo parámetro, pero por funciones de varias de ellas. Considere la posibilidad de la distribución gamma, para los cuales hay tres parametrizaciones que ver bastante común el uso-de los dos más común de lo que tienen, tanto la media y la variación de funciones de dos parámetros.

8voto

Igor Puntos 151

Mientras maximizar la probabilidad de los estimadores puede parecer sospechoso dados los supuestos sobre la distribución de los datos, Cuasi Estimadores de Máxima Verosimilitud son utilizados con frecuencia. La idea es empezar por asumir una distribución y resolver para el MLE, a continuación, retire la explícita la distribución de la asunción y en lugar de mirar cómo su estimador realiza en más condiciones generales. Así que la Cuasi MLE sólo se convierte en una forma inteligente de obtener un estimador, y la mayor parte de la obra es derivar las propiedades del estimador. Dado que la distribución de la hipótesis se cayó, la cuasi MLE por lo general no tienen el agradable eficiencia propiedades, aunque.

Como un juguete ejemplo, supongamos que tiene un alcoholímetro de la muestra $x_1, x_2, ..., x_n$, y desea un estimador para la varianza de $X$. Usted podría empezar por asumir $X \sim N (\mu, \sigma^2)$, escribir la probabilidad de usar el pdf normal, y resolver para la argmax para obtener $\hat\sigma^2 = n^{-1}\sum (x_i - \bar x)^2$. Podemos, a continuación, haga preguntas tales como: ¿bajo qué condiciones es $\hat\sigma^2$ un estimador coherente, es imparcial (no es), es la raíz n consistente, lo que se es asypmtotic de distribución, etc.

6voto

Franck Dernoncourt Puntos 2128

Estimación de máxima verosimilitud, se utiliza a menudo en el aprendizaje de máquina para entrenar:

Tenga en cuenta que en algunos casos se prefiere para añadir algo de regularización, que a veces es equivalente al Máximo de una estimación a posteriori, por ejemplo, ¿por Qué Lazo multa equivalente al doble exponencial (de Laplace) antes?.

3voto

Max Puntos 16

Puede alguien decirme un simple caso en el que es y para que sirve?

Una muy típico caso es que en la regresión logística. La regresión logística es una técnica que se utiliza a menudo en el aprendizaje de máquina para clasificar los puntos de datos. Por ejemplo, la regresión logística puede ser utilizado para clasificar si un correo es spam o no spam o clasificar si una persona tiene o no tiene una enfermedad.

Específicamente, el modelo de regresión logística dice que la probabilidad de un punto de datos $x_i$ está en la clase 1 es la siguiente: $h_\theta(x_i) = P[y_i = 1] = \frac{1}{1+e^{-\theta^T x_i}}$

El vector de parámetros $\theta$ suele ser estimado utilizando el MLE.

Específicamente, el uso de métodos de optimización, nos encontramos con el estimador $\hat\theta$ de manera tal que la expresión $-\sum_{i=1}^n y_i\log(h_\hat\theta(x_i)) + (1-y_i)\log(1-h_{\hat\theta}(x_i))$ es mínimo. Esta expresión es la negativa de registro de probabilidad, de modo de minimizar este es equivalente a la maximización de la probabilidad.

1voto

David Puntos 41

Estamos utilizando MLE todo el tiempo, pero no podemos sentir. Voy a dar dos ejemplos sencillos para mostrar.

Ejemplo 1

Si observamos coin flip resultado, con $8$ cabeza de $10$ flips (suponiendo iid. de Bernoulli), ¿cómo adivinar el parámetro de $\theta$ (prob de la cabeza) de la moneda? Podemos decir $\theta=0.8$, el uso de "contar".

¿Por qué utilizar contando? esto es en realidad implícitamente el uso de MLE! Dónde está el problema

$$ \underset \theta {\text{Maximizar}}~~~\theta^{8}(1-\theta)^{2} $$

Para resolver la ecuación, vamos a necesitar de algunos cálculos, pero la conclusión está contando.

Ejemplo 2

¿Cómo podemos estimar una distribución de Gauss de los parámetros a partir de los datos? Utilizamos empírica decir como se calcula la media y la varianza empírica según la estimación de la varianza, que también viene de MLE!.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X