2 votos

¿Es cierto que la probabilidad de ambos eventos es siempre igual? Si la respuesta es afirmativa, ¿cómo se puede demostrar?

Imagina que tengo una variable aleatoria real $X$ con alguna distribución (continua, discreta o continua con átomos)

Ahora imagina que tengo copias identificadas $X_1,...,X_n$ , todos ellos distribuidos de forma independiente y equitativa como $X$

Mi reclamo es:

$$\mathbb{P}(X_2>X_1)=\mathbb{P}(X_2<X_1)$$ Mi segunda pretensión es la siguiente:Si los ordeno por tallas, de manera que $X_{(1)}<X_{(2)}<\ldots<X_{(n)}$ y defino el intervalo $I_n=[X_{(1)},X_{(n)}]$ Entonces reclamo:

$$\mathbb{P}(X_{n+1}<X_{(1)})=\mathbb{P}(X_{n+1}>X_{(n)})$$

Así que la probabilidad de que el $n+1$ -el número que supera el intervalo de la izquierda es igual a la probabilidad de que lo supere en la derecha

Supongo que la primera es cierta, pero la segunda no;

Por ejemplo, supongamos que X puede tomar el valor 0 y 1; y supongamos que $n=3$ Entonces

$$\mathbb{P}(X_3>{X_1,X_2})=\mathbb P (X_3=1)\mathbb P (X_2=0)\mathbb P (X_1=0)=\mathbb P (X=1)\mathbb P (X=0)\mathbb P (X=0)$$ pero también $$\mathbb{P}(X_3<{X_1,X_2})=\mathbb P (X_3=0)\mathbb P (X_2=1)\mathbb P (X_1=1)=\mathbb P (X=0)\mathbb P (X=1)\mathbb P (X=1)$$

lo cual no es lo mismo; pero lo que me pregunto es si simplemente hay condiciones para que se haga realidad

2voto

palehorse Puntos 8268

Dejemos que $Y_n =\min(X_1,X_2 \cdots X_n)$ y que $y_n=\sum_{i=1}^n[X_i=Y_n]$ cuente el número de elementos que alcanzan ese mínimo. Análogamente, dejemos que $Z_n$ y $z_n$ sean el máximo y el máximo de la cuenta.

Entonces, por simetría $P( X_{n} = Y_n \wedge y_n=1)=P(X_n=Y_n) P(y_n=1 \mid X_n=Y_n)=\frac{1}{n} P(y_n=1)$

Entonces, esencialmente estás preguntando si $P(y_n=1)=P(z_n=1)$ es decir, si la probabilidad de tener un único máximo es igual a la probabilidad de tener un único mínimo. Esto no es cierto en general.

Es cierto para una variable continua (FCD continua) porque en ese caso la probabilidad de que un tenga un único extremo es igual a $1$ . También es cierto para una variable aleatoria simétrica (alrededor de la mediana). No estoy seguro de que haya una caracterización sencilla para que su FCD sea cierta en general.

Añadido:

Dejemos que $F(x) = P(X \le x)$ sea la FCD, y que $p(x)= F(x) - F(x^-)$ .

Entonces la probabilidad de tener un único mínimo en $n+1$ realizaciones es igual a

$$A=p(y_{n+1}=1)= \int \left(\frac{1-F(x)}{1-F(x^-)}\right)^n dF(x)= \int \left(1-\frac{p(x)}{1+p(x)-F(x)}\right)^n dF(x) \tag{1}$$

Del mismo modo, para el máximo:

$$B=p(z_{n+1}=1)= \int \left(\frac{F(x^-)}{F(x)}\right)^n dF(x) = \int \left(1- \frac{p(x)}{F(x)}\right)^n dF(x) \tag{2}$$

Si $F(x)$ tienen discontinuidades finitas en $x_i$ , $i=1,2\cdots k$ (quizás el resultado sea también válido para escenarios más generales), podemos escribir $F(x)=F_c(x) + \sum_i p(x_i)u(x-x_i)$ donde $F_c(x)$ es continua y $u(\cdot)$ es la función de paso unitario. Entonces

$$\begin{align} A &=\sum_i p(x_i) \left(1-\frac{p(x_i)}{1+p(x_i)-F(x_i)}\right)^n +F_c(+\infty)\\ &=1- \sum_i p(x_i)\left[1- \left(1-\frac{p(x_i)}{1+p(x_i)-F(x_i)}\right)^n \right]\tag{3} \end{align} $$

$$\begin{align} B&=\sum_i p(x_i) \left(1- \frac{p(x_i)}{F(x_i)}\right)^n +F_c(+\infty)\\ &=1- \sum_i p(x_i)\left[1- \left(1- \frac{p(x_i)}{F(x_i)}\right)^n \right] \tag{4} \end{align}$$

Por supuesto, $A=B=1$ si $F(x)$ es continua. También, $A=B$ si la probabilidad (¡tanto la parte continua como la discreta!) es simétrica. No hay mucho más que decir en general, creo...

1voto

user97678 Puntos 40

Estás preguntando si $P(X > \max({X_1, \ldots, X_n})) = P(X < \min({X_1, \ldots, X_n}))$ , donde $X_1, \ldots, X_n$ y $X$ son todos independientes y se distribuyen igual.

Esto es cierto en algunas distribuciones y falso en otras. Por ejemplo, si la $X_i$ s se muestrean uniformemente al azar de $[0,1]$ entonces las probabilidades serían las mismas (debido a la simetría).

En general, para cualquier distribución sobre $[a,b]$ que es simétrica respecto a $(a+b)/2$ se puede esperar que esto sea cierto.

Además, creo que esto es cierto para cualquier distribución continua sobre $(a,b)$ (es decir, que la probabilidad de que dos variables cualquiera reciban exactamente el mismo valor es 0). Para ver esto, observe que $P(X > \max({X_1, \ldots, X_n})) = \frac{1}{n+1} = P(X < \min({X_1, \ldots, X_n}))$ . Esto se debe a que primero podemos generar $X, X_1, \ldots, X_n$ , a continuación, ordene $X_1, \ldots, X_n$ sin afectar a las probabilidades, y cualquiera de ellas tiene la misma probabilidad de ser el máximo o el mínimo.

Para ver cuándo esto puede ser falso, supongamos que el $X_i$ s se eligen de la siguiente manera: con probabilidad $1/2$ , set $X_i = 10$ , de lo contrario, la muestra $X_i$ uniformemente de $[0,1]$ . Entonces $P(X > \max({X_1, \ldots, X_n}))$ se acercará $0$ exponencialmente rápido, ya que es imposible que $P(X > 10)$ que ocurra, pero $P(X < \min({X_1, \ldots, X_n}))$ es aproximadamente proporcional a $1/n$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X