20 votos

¿Cuán pequeño puede ser el % de probabilidad $\Bbb{P}(X_1+X_2 +\dots +X_n < n + 1)$si $\Bbb{E}(X_i) = 1$?

Deje $X_1, X_2, \dots, X_n$ $n$ no negativo independientes idénticamente distribuido variables aleatorias con la misma expectativa: $$\forall 1 \le i \le n: \quad \Bbb{E}(X_i) = 1$$

Lo pequeña que sea la probabilidad de $\Bbb{P}(X_1+X_2 +\dots +X_n < n + 1)$ puede ser?

Idealmente, para el fijo $n$, tenemos que encontrar un infimum de esta probabilidad sobre todas las posibles distribuciones de $X_i$ y, a continuación, ver si el límite inferior se puede lograr.

El natural de la idea es volver a escribir la probabilidad en cuestión en la siguiente forma: $$\Bbb{P}\left(\dfrac{X_1+X_2 +\dots +X_n}{n} < 1 + \dfrac{1}{n}\right)$$ Aquí aparece el promedio de $X_1, X_2, \dots, X_n$, pero no estoy seguro de lo que se puede hacer a continuación.

Yo también estoy interesado en la solución de la versión generalizada de que el problema de las variables aleatorias que no necesariamente son idénticamente distribuidas.

Cualquier sugerencias, consejos sobre cómo abordar este problema, y útiles comentarios, sería muy apreciado.

12voto

Michael Puntos 5270

Definir $c_n$ como el infimum valor de $P[X_1 + ... + X_n<n+1]$ sobre todas las distribuciones para el yo.yo.d. no negativo de las variables aleatorias $\{X_i\}$$E[X_i]=1$. Aquí puedo demostrar la simple los límites superior e inferior: $$ \frac{1}{n+1} \leq c_n \leq (1-\frac{1}{n+1})^n \quad, \forall n \in \{1, 2, 3, ...\} $$ Observe que los límites inferiores y superiores de satisfacer al $n=1$, lo $c_1=1/2$.

Viabilidad (límite superior):

Considere la posibilidad de la no negativo de las variables aleatorias $$ X_i = \left\{ \begin{array}{ll} n+1 &\mbox{ , with prob %#%#%} \\ 0 & \mbox{ , with prob %#%#%} \end{array} \right.$$ Estos han $\frac{1}{n+1}$ y el: $1-\frac{1}{n+1}$X_i$E[X_i]=1$$ Por lo tanto, $$P[X_1 + ... + X_n<n+1] = P[\mbox{all $.

Límite inferior:

Deje $ are zero}] = (1-\frac{1}{n+1})^n$ ser cualquier (posiblemente dependiente y no idénticamente distribuidas) no negativo de variables aleatorias con $c_n \leq (1-\frac{1}{n+1})^n$. Por la desigualdad de Markov: $\{X_i\}$$ y, por tanto,$E[X_i]=1$. Por lo tanto, $$ P[X_1 + ... + X_n\geq n+1] \leq \frac{E[X_1+...+X_n]}{n+1} = \frac{n}{n+1}$.

6voto

Jason Puntos 4778

EDICIÓN: Michael límite superior es localmente óptima, no a nivel mundial, como me había indicado. Específicamente, hay algunos vecindario $N$ de la distribución de $\alpha:=\frac{n}{n+1}\delta_0+\frac1{n+1}\delta_{n+1}$ (en la topología débil) tal que $\mathbb P(X_1+\ldots+X_n<n+1)<\mathbb P(Y_1+\ldots+Y_n<n+1)$ siempre $(X_i),(Y_i)$ son iid con $X_1\sim\alpha$$Y_1\sim\mu\in N\setminus\{\alpha\}$.

Para ver esto, vamos a $S$ el conjunto de medidas de probabilidad $\mu$ $[0,\infty)$ tal que $\int_0^\infty x\,\mu(dx)=1$, y para $\mu\in S$ definir

$$E_n[\mu]:=\int_{\sum_{i=1}^nx_i<n+1}\mu(dx_1)\ldots\mu(dx_n).$$

Tenga en cuenta que si $(X_i)$ son iid no negativo de variables aleatorias con $\mathbb E[X_1]=1$, e $\mu$ es la ley de la $X_1$,$E_n[\mu]=\mathbb P(X_1+\ldots+X_n<n+1)$. Deje $\alpha=\frac{n}{n+1}\delta_0+\frac1{n+1}\delta_{n+1}$, es decir, $\alpha$ es la distribución de la variable aleatoria Michael define por el límite superior.

Observar que $S$ es convexa, por lo que da arbitrarias $\mu\in S\setminus\{\alpha\}$ la función de $\Phi_n(t):=E_n[(1-t)\alpha+t\mu]$ está bien definido para $t\in[0,1]$. La fórmula para $\Phi_n(t)$ es complicado, pero no necesitamos mucho de ella:

$$\Phi_n(t)=c_0+\left(\sum_{i=1}^n\int_{\sum_jx_j<n+1}\mu(dx_i)\prod_{k\neq i}\alpha(dx_k)-\int_{\sum_jx_j<n+1}n\prod_{k=1}^n\alpha(dx_k)\right)t+\sum_{i=2}^nc_it^i$$

donde el $c_i$ son constantes dependiendo $\mu$ pero no $t$. Este rendimientos

\begin{align*} \Phi_n'(0) &=n\left(\int_{\sum_j x_j<n+1}\mu(dx_1)\prod_{k=2}^n\alpha(dx_k)-\int_{\sum_j x_j<n+1}\prod_{k=1}^n\alpha(dx_k)\right)\\ &=n\left[\mathbb P\left(Y_1+\sum_{i=2}^nX_i<n+1\right)-\mathbb P\left(\sum_{i=1}^nX_i<n+1\right)\right] \end{align*}

donde $Y_1$ es una variable aleatoria con la ley de $\mu$, independiente de las variables aleatorias iid $X_i$ a que tienen derecho $\alpha$. Tenga en cuenta que desde $\mu\neq\alpha$$Y_1\ge0$, $\mathbb P(Y_1<n+1)>1-\frac1{n+1}$ y por lo tanto

$$\mathbb P\left(Y_1+\sum_{i=2}^nX_i<n+1\right)=\mathbb P(Y_1<n+1)\mathbb P(X_1=0)^{n-1}>\left(1-\frac1{n+1}\right)^n$$ y por lo tanto $\Phi_n'(0)>0$. Esto implica que existe $\delta>0$ tal que $\Phi_n(0)<\Phi_n(t)$ todos los $t\in(0,\delta)$; desde $\mu$ fue arbitraria, se deduce que el $E_n$ tiene un estricto mínimo local en $\alpha$.

EDIT: yo originalmente había escrito aquí que $E_n$ es convexo y concluir el resultado. Sin embargo, como Michael señala en los comentarios, esta afirmación no es verdadera. Todavía puede ser posible continuar con este argumento y la conclusión de que $\alpha$ es el mundial minimizer de $E_n$, pero en este momento la mejor que tengo es que $\alpha$ es un local minimizer.


Después de haber visto fedja el comentario y la lectura del material relacionado con el, me parece raro que nadie va a ser capaz de resolver es la generalización de la versión que aquí se presenta es un problema de investigación.

5voto

Michael Puntos 5270

Yo creo que el siguiente es un contra-ejemplo a Jason, que afirma que el $E_n$ es una función convexa. Considere la posibilidad de $n=2$. Definir:

\begin{align} X &= \left\{ \begin{array}{ll} 1/2 &\mbox{ with prob %#%#%} \\ 3/2 & \mbox{ with prob %#%#%} \end{array} \right.\\ Y &= \left\{ \begin{array}{ll} 0 &\mbox{ with prob %#%#%} \\ \theta & \mbox{ with prob %#%#%} \end{array} \right. \end{align} donde $\frac{1}{2}$ es elegido de manera que $\frac{1}{2}$$1-\frac{1}{\theta}$, $\frac{1}{\theta}$. Tenga en cuenta que $\theta$ $\theta>1$ son no negativos variables aleatorias con $(1-\frac{1}{\theta})^2 = 3/4$. Deje $\theta = 2(2+\sqrt{3})\approx 7.46$ ser independiente copias de $X$ $Y$ ser independiente copias de $E[X]=E[Y]=1$. Entonces: $X_1, X_2$$ $X$$ Para mostrar la convexidad falla, es suficiente para definir una variable aleatoria $Y_1, Y_2$ que es una mezcla de $Y$$$ P[X_1+X_2<3] = 1-P[X_1=X_2=3/2] = 3/4$, sin embargo, $$ P[Y_1 + Y_2 < 3] = P[Y_1=Y_2=0] = (1-1/\theta)^2 = 3/4 $ $Z$ copias independientes de $X$.

Definir $Y$ por la independencia arrojando una moneda buena y la elección de $P[Z_1+Z_2<3]>3/4$ si se dirige; $Z_1, Z_2$ más: $ A$ Z = \left\{ \begin{array}{ll} 0 &\mbox{ with prob %#%#%} \\ 1/2 & \mbox{ with prob %#%#%} \\ 3/2 & \mbox{ with prob %#%#%} \\ \theta & \mbox{with prob %#%#%} \end{array} \right.$$ Deje $Z$ ser independiente copias de $Z$. Entonces \begin{align} P[Z_1+Z_2<3] &= P[Z_1=0]P[Z_2 \in \{0, 1/2, 3/2\}] \\ &+ P[Z_1=1/2]P[Z_2 \in \{0, 1/2, 3/2\}] +P[Z_1=3/2]P[Z_2 \in \{0, 1/2\}] \\ &=\frac{3}{8}+ \frac{\sqrt{3}}{4} \\ &> 3/4 \end{align}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X