Tengo una muestra de unos 1000 valores. Estos datos se obtienen del producto de dos variables aleatorias independientes $\xi \ast \psi $ . La primera variable aleatoria tiene una distribución uniforme $\xi \sim U(0,1)$ . No se conoce la distribución de la segunda variable aleatoria. ¿Cómo puedo estimar la distribución de la segunda ( $ \psi $ ).
Respuesta
¿Demasiados anuncios?Tenemos, asumiendo $\psi$ tiene soporte en la línea real positiva, $$\xi \,\psi = X$$ Dónde $X \sim F_n$ y $F_n$ es la distribución empírica de los datos.
Tomando el logaritmo de esta ecuación obtenemos,
$$ Log(\xi) + Log(\psi) = Log(X) $$
Así, por el teorema de continuidad de Levy, y la independencia de $\xi$ y $\psi$ tomando las funciones de los personajes:
$$ \Psi_{Log(\xi)}(t)\Psi_{Log(\psi)}(t) = \Psi_{Log(X)}$$
Ahora, $ \xi\sim Unif[0,1]$$ Por lo tanto $$-Log(\xi) \sim Exp(1) $
Así, $$\Psi_{Log(\xi)}(-t)= \left(1 + it\right)^{-1}\,$$
Dado que $\Psi_{ln(X)} =\frac{1}{n}\sum_{k=1}^{1000}\exp(itX_k) ,$ Con $ X_1 ... X_{1000}$ La muestra aleatoria de $\ln(X)$ .
Ahora podemos especificar completamente la distribución de $Log(\psi)$ a través de su función característica:
$$ \left(1 + it\right)^{-1}\,\Psi_{Log(\psi)}(t) = \frac{1}{n}\sum_{k=1}^{1000}\exp(itX_k)$$
Si suponemos que las funciones generadoras de momentos de $\ln(\psi)$ existen y que $t<1$ podemos escribir la ecuación anterior en términos de funciones generadoras de momentos:
$$ M_{Log(\psi)}(t) = \frac{1}{n}\sum_{k=1}^{1000}\exp(-t\,X_k)\,\left(1 - t\right)\,$$
Basta entonces con invertir la función generadora del Momento para obtener la distribución de $ln(\phi)$ y por lo tanto la de $\phi$