9 votos

¿Por qué este valor esperado simplificar como se muestra?

Estuve leyendo sobre el tanque alemán problema y dicen que en una muestra de tamaño $k$, de una población de enteros de $1,\ldots,N$ la probabilidad de que la muestra máxima es igual a $m$ es:

$$\frac{\binom{m-1}{k-1}}{\binom{N}{k}}$$

En este sentido. Pero, a continuación, tomar el valor esperado de la muestra máxima y demanda:

$$\mu = \sum_{m=k}^N m \frac{\binom{m-1}{k-1}}{\binom{N}{k}} = \frac{k(N+1)}{k+1}$$

Y no acabo de ver cómo simplificar que la recapitulación. Puedo sacar el denominador y un $(k-1)!$ plazo, y obtener:

$$\mu = \frac{(k-1)!}{\binom{N}{k}} \sum_{m=k}^N m(m-1) \ldots (m-k+1)$$

Pero me quedo atascado allí...

9voto

goric Puntos 5230

Aquí hay otra manera de mirar el problema que utiliza la simetría natural.

Las muestras de tamaño $k$ están en una correspondencia uno a uno con la secuencia de las "brechas" entre las observaciones (a través de la secuencia de estadísticas de orden):

$$\{x_1,x_2,\dots, x_k\}\leftrightarrow x_{(1)}<x_{(2)}<\cdots <x_{(k)} \leftrightarrow (G_1,G_2,\dots, G_{k+1})$$

Aquí se definen las $G_1=x_{(1)}$, $G_j=x_{(j)}-x_{(j-1)}$ para $2\leq j\leq k$, y $G_{k+1}=(N+1)-x_{(k)}$. Este la correspondencia muestra que $G_1,G_2,\dots, G_{k+1}$ intercambiable variables aleatorias, en particular, son idénticamente distribuidas.

Desde $\sum_{j=1}^{k+1} G_j=N+1$ de forma idéntica, las expectativas de estos $k+1$ idénticamente distribuidas variables aleatorias deben ser $\mathbb{E}(G_j)={N+1\over k+1}$.

En particular, $\mathbb{E}(G_{k+1})=\mathbb{E}((N+1)-x_{(k)})={N+1\over k+1}$ lo que implica $$\mathbb{E}(\mbox{Maximum})=\mathbb{E}(x_{(k)})=(N+1)- {N+1\over k+1}={k\over k+1} (N+1).$$

Del mismo modo, vemos que los valores esperados de las estadísticas de orden de $\mathbb{E}(x_{(1)}),\mathbb{E}(x_{(2)}),\dots, \mathbb{E}(x_{(k)})$ are evenly spread out from ${1\más k+1} (N+1)$ a ${k\over k+1} (N+1).$

Ver este post para más preguntas acerca de estas brechas.

6voto

Did Puntos 1

Llame a $B_k^N=\sum\limits_{m=k}^N\binom{m-1}{k-1}$.


Hecho 1: $B_k^N=\binom{N}{k}$ (porque la suma de las masas de una forma discreta de probabilidad de medida es $1$ o por un cálculo directo).


Hecho 2: Para cada $n\geqslant i\geqslant 1$, $n\binom{n-1}{i-1}=i\binom{n}{i}$.


Ahora para la prueba.

Hecho de 2 por $(n,i)=(m,k)$ da $\sum\limits_{m=k}^Nm\binom{m-1}{k-1}=\sum\limits_{m=k}^Nk\binom{m}{k}=k\sum\limits_{m=k+1}^{N+1}\binom{m-1}{(k+1)-1}=kB_{k+1}^{N+1}$.

Hecho 1 da $B_{k+1}^{N+1}=\binom{N+1}{k+1}$.

Hecho de 2 por $(n,i)=(N+1,k+1)$ (o un directo de cómputo) da $(k+1)B_{k+1}^{N+1}=(N+1)B_k^N$.

Finalmente, $\mu=\dfrac{kB_{k+1}^{N+1}}{B_k^N}=k\dfrac{N+1}{k+1}$.


Editar El mismo método, se obtiene para cada $i\geqslant0$, $$ \mathrm E(X(X+1)\cdots(X+i))=\frac{k}{k+i+1}(N+1)(N+2)\cdots(N+i+1). $$

2voto

sewo Puntos 58

Por otra parte, $$\mu = \sum_{m=k}^N m \frac{\binom{m-1}{k-1}}{\binom{N}{k}} = \sum_{m=k}^{N}\frac{m! k!(N-k)!}{N!(k-1)!(m-k)!}$$ $$= k\frac{k! (N-k)!}{N!} \sum_{m=k}^N \binom{m}{m-k} = k\frac{k! (N-k)!}{N!} \binom{N+1}{N-k}$$ $$= k\frac{k! (N-k)! (N+1)}{N! (N-k)! (k+1)!} = k\frac{N+1}{k+1}$$

donde $$\sum_{m=k}^N \binom{m}{m-k} = \sum_{i=0}^{N-k} \binom{k+i}{i} = \binom{N+1}{N-k}$$ puede ser visto desde el Triángulo de Pascal.

1voto

Fionnuala Puntos 67259

Sabemos que $$\mu = \sum_{m=k}^N m \frac{\binom{m-1}{k-1}}{\binom{N}{k}}$$ $$= \sum_{m=k}^{N}m \frac{(m-1)! k!(N-k)!}{N!(k-1)!(m-k)!}$$

$$= \frac{k!(N-k)!}{N!(k-1)!} \sum_{m=k}^{N} m \frac{(m-1)!}{(m-k)!}$$

$$ = \frac{k (N-k)!}{N!} \sum_{m=k}^{N} \frac{m!}{(m-k)!}$$

La expresión de la derecha es la suma de la caída de los factoriales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X