8 votos

¿Qué tipo de distribución es $f_X(x) = 2 \lambda \pi x e^{-\lambda \pi x ^2}$?

¿Qué tipo de función es:

$f_X(x) = 2 \lambda \pi x e^{-\lambda \pi x ^2}$

Es esta una distribución habitual? Estoy tratando de encontrar un intervalo de confianza de $\lambda$ utilizando el estimador $\hat{\lambda}=\frac{n}{\pi \sum^n_{i=1} X^2_i}$ y estoy luchando para probar si este estimador se ha Normalidad Asintótica.

Gracias

10voto

Marc-Andre R. Puntos 789

Es una raíz cuadrada de distribución exponencial con tasa de $\pi\lambda$. Esto significa que si $Y\sim\exp(\pi\lambda)$,$\sqrt{Y}\sim f_X$.

Desde su estimación de máxima verosimilitud de estimación debe ser asintóticamente normal. Esto se sigue inmediatamente de las propiedades de un máximo de estimaciones de probabilidad. En este caso en particular:

$$\sqrt{n}(\hat\lambda-\lambda)\to N(0,\lambda^2)$$

desde

$$E\frac{\partial^2}{\partial \lambda^2}\log f_X(X)=-\frac{1}{\lambda^2}.$$

10voto

patfla Puntos 1

¿Por qué te importa asymptotics cuando la respuesta exacta es tan simple (y exacta)? Estoy asumiendo que usted desea normalidad asintótica de modo que usted puede utilizar el $\mathrm{Est}\pm z_{\alpha}\mathrm{StdErr}$ tipo de intervalo de confianza

Si la probabilidad de transformación de $Y_{i}=X_{i}^{2}$, entonces usted tiene una exponencial distribución de muestreo (como @mpiktas ha mencionado):

$$\newcommand{\Gamma}{\mathrm{Gamma}} \newcommand{\MLE}{\mathrm{MLE}} \newcommand{\Pr}{\mathrm{Pr}} f_{Y_{i}}(y_{i})=f_{X_{i}}(\sqrt{y_{i}})|\frac{\partial\sqrt{y_{i}}}{\partial y_{i}}|=2 \lambda \pi \sqrt{y_{i}} \exp(-\lambda \pi \sqrt{y_{i}} ^2)\frac{1}{2\sqrt{y_{i}}}=\lambda\pi\exp(-\lambda\pi y_{i})$$

De modo que la articulación de la log-verosimilitud en términos de $D\equiv\{y_{1},\dots,y_{N}\}$ se convierte en:

$$\log[f(D|\lambda)]=N\log(\pi)+N\log(\lambda)-\lambda\pi\sum_{i=1}^{N}y_{i}$$

Ahora la única manera en que los datos entra en el análisis es a través de la total $T_{N}=\sum_{i=1}^{N}y_{i}$ (y el tamaño de la muestra $N$). Ahora es una escuela primaria de muestreo cálculo de la teoría para demostrar que $T_{N}\sim \Gamma(N,\pi\lambda)$, y, además, que $\pi N^{-1}T_{N}\sim \Gamma(N,N\lambda)$. Podemos hacer de esto una "fundamental" cantidad por toma de $\lambda$ de las ecuaciones (a través de la misma manera que acabo de poner $N$ dentro de ellos). Y tenemos:

$$\lambda\pi N^{-1}T_{N}=\frac{\lambda}{\hat{\lambda}_{\MLE}}\sim \Gamma(N,N)$$

Tenga en cuenta que por lo tanto ahora tenemos una distribución que consiste en la MLE y cuya distribución de muestreo es independiente del parámetro $\lambda$. Ahora su MLE es igual a$\frac{1}{\pi N^{-1}T_{N}}$, por lo que la escritura de cantidades $L_{\alpha}$ $U_{\alpha}$ de manera tal que el siguiente se tiene:

$$\Pr(L_{\alpha} < G < U_{\alpha})=1-\alpha\;\;\;\;\;\;\;G\sim \Gamma(N,N)$$

Y luego tenemos:

$$\Pr(L_{\alpha} < \frac{\lambda}{\hat{\lambda}_{\MLE}} < U_{\alpha})=\Pr(L_{\alpha}\hat{\lambda}_{\MLE} > \lambda > U_{\alpha}\hat{\lambda}_{\MLE})=1-\alpha$$

Y usted tiene un exacto $1-\alpha$ intervalo de confianza para $\lambda$.

NOTA: La distribución Gamma que estoy usando es la "precisión" de estilo, por lo que un $\Gamma(N,N)$ densidad se ve así: $$f_{\Gamma(N,N)}(g)=\frac{N^{N}}{\Gamma(N)}g^{N-1}\exp(-Ng)$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X