Estoy atascado en la forma de resolver este problema.
Por lo tanto, tenemos dos secuencias de variables aleatorias, $X_i$$Y_i$$i=1,...,n$. Ahora, $X$ $Y$ son independientes distribuciones exponenciales con los parámetros de $\lambda$$\mu$. Sin embargo, en lugar de la observación de $X$$Y$, podemos observar en lugar de $Z$$W$.
$Z=\min(X_i,Y_i)$ $W=1$ si $Z_i=X_i$ y 0 si $Z_i=Y_i$. Tengo que encontrar cerrado de formas para los estimadores de máxima verosimilitud de $\lambda$ $\mu$ sobre la base de la $Z$$W$. Aún más, tenemos que demostrar que estos son máximos globales.
Ahora, yo sé que el mínimo de dos exponenciales independientes en sí es exponencial, con una tasa igual a la suma de las tarifas, así que sabemos que $Z$ es exponencial con parámetro de $\lambda+\mu$. Por lo tanto nuestro estimador de máxima verosimilitud es: $\hat{\lambda}+\hat{\mu}=\bar{Z}$.
Pero estoy atascado con a dónde ir desde aquí. Sé que $W$ es una distribución de Bernoulli con parámetro de $p=P(Z_i=X_i)$, pero no sé cómo ir sobre la conversión de esta en una declaración acerca de uno de los parámetros. Por ejemplo, ¿qué sería de la MLE $\bar{W}$ ser la estimación en términos de $\lambda$ y/o $\mu$? Entiendo que si $Z_i=X_i$,$\mu=0$, pero estoy teniendo un tiempo difícil averiguar cómo llegar a cualquier afirmación algebraica, aquí.
ACTUALIZACIÓN 1: por Lo que me han dicho en los comentarios para derivar la probabilidad para la distribución conjunta de $Z$$W$.
Por lo $f(Z,W)=f(Z|W=1)\cdot p+f(Z|W=0)\cdot (1-p)$ donde $p=P(Z_i=X_i)$. La correcta? No sé de qué otra manera para obtener una distribución conjunta en este caso, ya que los $Z$ $W$ no son independientes.
Así que esto nos da, $f(Z_i,W_i)=p\lambda e^{-\lambda z_i}+(1-p)\mu e^{-\mu z_i}$, por la definición de $W$ por encima. Pero ahora, ¿qué? Esto no me lleve a nada. Si voy a través de los pasos de cálculo de la probabilidad, me sale: (usar $m$ $n$ como el tamaño de la muestra para cada parte de la mezcla...)
$L(\lambda,\mu)=p^m\lambda^m e^{-\lambda \sum{z_i}}+(1-p)^n\mu^n e^{-\mu \sum{z_i}}$
$\log L=m\log p+m\log\lambda-\lambda \sum{z_i}+n\log(1-p)+n\log\mu-\mu \sum{z_i}$
Si puedo tomar las derivadas parciales, este me dice que mi MLE estimaciones para $\lambda$ $\mu$ sólo son el promedio de la $Z$'s condicional en $W$. Es decir,
$\hat{\lambda}=\frac{\sum{Z_i}}{m}$
$\hat{\mu}=\frac{\sum{Z_i}}{n}$
y
$\hat{p}=\frac{m}{n+m}$