Tengo el siguiente escenario:
Se lanza una moneda justa y se registra el resultado "cara" o "cruz" como variable aleatoria $Z$ . Si se observa una cabeza, una muestra aleatoria $X_1,\dots,X_n \sim \text{Bernoulli}(\theta)$ se recoge, con un tamaño de muestra fijo $n$ . Si se observa una cola, una muestra aleatoria $X_1,X_2,\ldots \sim \text{Bernoulli}(\theta)$ se recoge hasta $k$ se obtienen éxitos, para algunos $k<n$ . Sea $N$ denotan la variable aleatoria que registra el número total de $X$ observado, y que $M$ denotan el número de aciertos en el observado $Xs$ .
Debo demostrar que la distribución de $Z$ , dado $N$ y $M$ no depende de $\theta$ .
Diga $Z=0$ representa "cabezas" y $Z=1$ representa las "colas". Podemos entonces encontrar distribuciones condicionales para variables aleatorias $N$ y $M$ . Esto es lo que he encontrado hasta ahora.
$$\text{P}[N=j\mid Z=0]=\begin{cases}0 & \text{if } j\neq n \\ 1 & \text{if } j=n\end{cases} \\ \text{P}[N=j\mid Z=1]=\binom{j-1}{k-1} \theta^k(1-\theta)^{j-k}, j=k,k+1,\dots$$
$$\text{P}[M=j\mid Z=0]=\binom{n}{j}\theta^j(1-\theta)^{n-j}, j=0,1,\dots,n\\ \text{P}[M=j\mid Z=1]=\begin{cases}0 & \text{if } j\neq k \\ 1 & \text{if } j=k \end{cases}$$
También conozco el siguiente resultado, por la definición de condicionamiento y utilizando la ley de la probabilidad total. \begin {eqnarray} \text {P}[Z=z \mid N=j,M=j]&=& \frac { \text {P}[N=j,M=j \mid Z=z] \text {P}[Z=z]}{ \text {P}[N=j,M=j]} \\ &=& \frac { \text {P}[N=j,M=j \mid Z=z] \text {P}[Z=z]}{ \sum_z\text {P}[N=j,M=j \mid Z=z] \text {P}[Z=z]} \end {eqnarray}
Aquí es donde estoy atascado. No puedo averiguar cómo utilizar la información anterior para terminar este cálculo. En particular, una de las distribuciones anteriores implica $k$ y el otro no ¿podré deshacerme alguna vez de la dependencia de $\theta$ ¿entonces? Me resultaría muy útil cualquier pista o paso sobre cómo proceder.
0 votos
¿No querrás decir $P(Z=z|N=i,M=j)$ , ya que no sabes que $N$ y $M$ tendrá el mismo valor.