8 votos

Prueba de que la probabilidad de que un RV sea mayor que $n-1$ otros es $\frac{1}{n}$

Esto es una continuación de mi pregunta anterior sobre las muestras de una distribución.

Supongamos que $X_1 \ldots X_{n-1}, X_n$ son variables aleatorias que siguen una distribución fija $D$ . ¿Cómo puedo demostrar que $P(X_n > X_1 \wedge \ldots \wedge X_n > X_{n-1}) = \frac{1}{n}$ (esto es cierto intuitiva y experimentalmente).

6 votos

Esto no es necesariamente cierto. Si $X_i = 1$ de forma idéntica, entonces lo que intentas demostrar es falso.

3 votos

Hay que poner más suposiciones en la distribución $D$ .

0 votos

Se podría tratar de asumir la $X_i$ son independientes y $D$ es continua, pero incluso esto no será suficiente. Por ejemplo, negativo variables aleatorias y dejemos que $n$ sea cualquier número impar. Entonces el producto $X_1\cdots X_{n-1}$ debe ser positivo, por lo que $\Pr(X_n\gt X_1\cdots X_{n-1})=0$ . ¿Es posible que se refiera a algo más que a un producto cuando escribe " $X_1\ldots X_{n-1}$ "? Si se trata de una abreviatura de " $X_n\gt X_1$ y $X_n\gt X_2$ y ... y $X_n\gt X_{n-1}$ ," entonces pídele a @Glen_b que publique su comentario a tu pregunta anterior como respuesta, porque servirá perfectamente.

9voto

Bauna Puntos 176

Aquí hay una prueba un poco más notacional, ya que a veces la gente se siente aprensiva con las pruebas intuitivas como Comentario de glen_b . (A veces con razón, ya que no es necesariamente obvio de inmediato que su prueba no se aplica a las distribuciones discretas).

Supongamos que $X_i$ se distribuyen iid según alguna distribución $D$ . Dejemos que $M_i$ sea el evento que $X_i = \max(X_1, \dots, X_n)$ . Claramente, al menos uno de los $M_i$ debe mantenerse, por lo que $\Pr(M_1 \cup \dots \cup M_n) = 1$ . Pero, utilizando el principio de inclusión-exclusión \begin{align*} \Pr(M_1 \cup \dots \cup M_n) &= \sum_i Pr(M_i) - \sum_{i < j} \Pr(M_i \cap M_j) + \sum_{i < j < k} \Pr(M_i \cap M_j \cap M_k) - \dots \end{align*} Si $D$ es continua, entonces $\Pr(M_i \cap M_j) = 0$ para todos $i \ne j$ ; todos estos últimos términos caen. Además, como el $X_i$ están idénticamente distribuidos claramente $\Pr(M_1) = \Pr(M_i)$ para todos $i$ . Así, $$ \Pr(M_1 \cup \dots \cup M_n) = \sum_i \Pr(M_i) = n \Pr(M_1) = 1,$$ así que $\Pr(M_1) = \frac{1}{n}$ .

Si $D$ no es continua, los términos más altos no se caen. Tomando El ejemplo de @Yair Daon donde $X_i$ es idéntico a 1, cada $M_i$ siempre se mantiene, y la suma se convierte en $$ \Pr(M_1 \cup \dots \cup M_n) = \sum_i 1 - \sum_{i<j} 1 + \sum_{i<j<k} 1 - \dots = \sum_{k=1}^n (-1)^{k+1} \binom{n}{k} = 1 .$$

1 votos

+1 Esta es definitivamente la manera fácil y perspicaz de véase por qué el resultado es cierto, y su rigor es útil.

0 votos

A partir de $\sum_i\Pr(M_i)=1$ tenemos que el valor medio de estos $n$ probabilidades es $\frac 1n$ . Ahora, sin pérdida de generalidad, supongamos que existe una prueba que $\Pr(M_1)>\frac 1n$ . Entonces, intercambiando los subíndices $1$ y $i$ en la prueba, podemos demostrar que $\Pr(M_i)>\frac 1n$ y de manera similar $\Pr(M_j)>\frac 1n$ y $\ldots$ que nos lleva a la conclusión de que estamos en el Lago Wobegon, donde todo el $\Pr(M_j)$ están por encima de la media en valor, o que la prueba de que $\Pr(M_1)>\frac 1n$ es defectuoso, y que todos los $\Pr(M_i)$ debe tener necesariamente el mismo valor $\frac 1n$ .

8voto

Jeff Bauer Puntos 236

Para las variables aleatorias absolutamente continuas, esto tiene una bonita demostración.

Tenemos una muestra i.i.d. caracterizada por la densidad $f$ y la función de distribución $F$ . Para evitar los subíndices, denotemos $Y \equiv X_{(n-1)}$ el máximo de la submuestra de tamaño $n-1$ y $W \equiv X_n$ el $n$ -en el sorteo. Al ser el estadístico de máximo orden, la función de densidad de $Y$ es $f_Y(y) = (n-1)f(y)[F(y)]^{n-2}$ . Queremos calcular la probabilidad de que el $n$ -será el máximo (no conocemos los valores de ningún sorteo),

$$P(Y \leq W) = \int_{-\infty}^{\infty} \int_{-\infty}^w f_{WY}(w,y){\rm d}y{\rm d}w$$

$$=\int_{-\infty}^{\infty} \int_{-\infty}^w f(w) f_Y(y){\rm d}y{\rm d}w$$

la descomposición de la densidad conjunta debido a la independencia. $f_Y(y)$ no es una densidad simple, por lo que cambiamos el orden de integración

$$P(Y \leq W) =\int_{-\infty}^{\infty} f_Y(y)\int_y^{\infty} f(w) {\rm d}w{\rm d}y$$ $$=\int_{-\infty}^{\infty} f_Y(y)[1-F(y)] {\rm d}y = 1-\int_{-\infty}^{\infty}f_Y(y)F(y) {\rm d}y$$

ya que hemos integrado la densidad de $Y$ sobre todo el soporte. Escribiendo esta densidad para la integral restante tenemos

$$\int_{-\infty}^{\infty}f_Y(y)F(y) {\rm d}y = \int_{-\infty}^{\infty}(n-1)f(y)[F(y)]^{n-2}F(y){\rm d}y $$

$$=\frac {n-1}{n}\int_{-\infty}^{\infty}nf(y)[F(y)]^{n-1}{\rm d}y = \frac {n-1}{n}$$

ya que el integrando se ha convertido en la función de densidad del estadístico de orden máximo de una muestra de tamaño $n$ y, por tanto, integrado en todo el soporte, equivale también a la unidad.

Así que,

$$P(Y \leq W) = 1- \frac {n-1}{n} = \frac 1n$$

4voto

Aksakal Puntos 11351

Supongamos que se trata de variables aleatorias continuas. Obviamente deben ser independientes, es decir, i.i.d. en este caso.

Piensa en cuántas permutaciones hay de la secuencia $X_1,\dots,X_n$ ¿donde el máximo terminará siendo en la última posición? Es $\frac{n!}{(n-1)!n!}$ . Hay $n!$ permutaciones en total. Por lo tanto, su probabilidad es $\frac{1}{n}$ .

Para las probabilidades discretas su afirmación no será correcta, como le mostró @YairDaon

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X