9 votos

MLE de$f(x;\alpha,\theta)=\frac{e^{-x/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}$

Permita que$X_{1},X_{2},X_{3},...,X_{n}$ sea una muestra aleatoria de una distribución con pdf$$f(x;\alpha,\theta)=\frac{e^{-x/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}I_{(0,\infty)}(x ),\alpha,\theta>0$ $

Encuentre el estimador de máxima verosimilitud de$\alpha$ y$\theta$. Dejar $\Psi(\alpha)=\frac{d\Gamma(\alpha)}{d\alpha}$

Mi intento, \begin{eqnarray*} \mathcal{L}(\alpha,\theta)&=&\prod_{i=1}^{n}f(x_i)\\ &=&\prod_{i=1}^{n}\frac{e^{-x_i/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x_i^{\alpha-1}\\ &=&\frac{1}{\Gamma^{n}(\alpha)\cdot \theta^{n \alpha}}(\prod_{i=1}^{n}x_i)^{\alpha-1}\exp(-\sum_{i=1}^{n}\frac{x_i}{\theta}) \end {eqnarray *} \begin{eqnarray*} \ell(\alpha,\theta)&=&-n\log(\Gamma(\alpha))-n\alpha\log(\theta)+(\alpha-1)\sum_{i=1}^{n}\log(x_i)-\frac{1}{\theta}\sum_{i=1}^{n}x_i\\ \frac{\delta \ell(\alpha,\theta)}{\delta \theta}&=&-\frac{n\alpha}{\theta}+\frac{1}{\theta^2}\sum_{i=1}^{n}x_i=0\\ \frac{1}{\theta^2}\sum_{i=1}^{n}x_i&=&\frac{n\alpha}{\theta}\\ \hat{\theta}&=&\frac{\sum_{i=1}^{n}x_i}{n\alpha}\\ &=&\frac{1}{\alpha}\bar{x}\\ \end {eqnarray *} \begin{eqnarray*} \frac{d \ell(\alpha,\hat{\theta})}{d\alpha}&=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}-n\log(\frac{1}{\alpha}\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ &=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}+n\log(\alpha)-n\log(\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ \log(\alpha)-\frac{\Gamma'(\alpha)}{\Gamma(\alpha)}&=&\log(\bar{x})-\frac{\sum_{i=1}^{n}\log(x_i)}{n} \end {eqnarray *}

No podría continuar más para encontrar el$\alpha$. En segundo lugar, no sé cómo usar$\Psi(\alpha)=\frac{d\Gamma(\alpha)}{d\alpha}$ como se indica en la pregunta. Espero que alguien me lo explique.

Gracias por adelantado.

7voto

Paulius Puntos 369

Deje $\psi(\alpha) = \frac{\Gamma'(\alpha)}{\Gamma(\alpha)}$ $\psi$ es la función digamma (estoy usando $\psi$ más que su $\Psi$).

Por el AM-GM de la desigualdad $$ \bar x \geq \left(\prod_i x_i\right)^{1/n} $$ así $$ \log \bar x - \overline{\log x} \geq 0 $$ (donde $\log \bar x$ $\log x_i$ se definen casi seguramente). Por otra parte, la igualdad sólo se cumple para $x_1=\dots=x_n$ que es una probabilidad $0$, $\log \bar x - \overline{\log x} > 0$ casi seguramente.

Para simplificar, voy a tomar $y = \log \bar x - \overline{\log x}$.

Considere la posibilidad de $f(\alpha) = \log(\alpha) - \psi(\alpha)$$(0,\infty)$. Este es continua y $$ \lim_{\alpha\to 0} f(\alpha) = \infty $$ $$ \lim_{\alpha\to\infty} f(\alpha) = 0 $$ así que por el teorema del valor intermedio $f$ hits cada número real en $(0,\infty)$. En particular, esto significa que $$ f^{-1}\left(\left\{y\right\}\right) \neq \emptyset $$ es decir, hay al menos un punto en $(0,\infty)$ asignado a $y$, ya que el $y > 0$.

Además, $f$ resulta ser inyectiva en a$(0,\infty)$$f' < 0$, por lo que en realidad hay una única $\hat \alpha$$f(\hat\alpha) = y$.

En realidad, la búsqueda de este $\hat \alpha$ se requieren métodos numéricos, aunque, como @StubbornAtom dice.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X