31 votos

En promedio, ¿cuántos números reales uniformemente aleatorios $u$ son necesarios para que su suma supere $1$ si $u_1$ está en $(0,1)$ y $u_k$ está en $(0,eu_{k-1})$ ?

Una pregunta bien conocida es: por término medio, ¿cuántos números reales uniformemente aleatorios en $(0,1)$ son necesarios para que su suma supere $1$ ? En responder es $e$ .

Modifiquemos esta pregunta haciendo que cada número aleatorio $u_k$ después de la primera, para estar en $(0,eu_{k-1})$ .

En promedio, ¿cuántos números reales uniformemente aleatorios $u$ son necesarios para que su suma supere $1$ si $u_1$ está en $(0,1)$ y $u_k$ está en $(0,eu_{k-1})$ ?

Por qué $e$ ? Porque todo lo que no sea $e$ haría que la expectativa fuera infinita, y cualquier cosa mayor que $e$ haría que la expectativa fuera finita. Pero con $e$ No sé cuál sería la expectativa.

( Aquí hay una versión más general de esta pregunta en Math SE, actualmente sin respuesta).

EDITAR

Mi afirmación de que "todo lo que no sea $e$ haría que la expectativa fuera infinita, y cualquier cosa mayor que $e$ haría que la expectativa fuera finita" se basaba en un razonamiento inválido. Pero puede que siga siendo cierto, basándose en otro razonamiento. En cualquier caso, mi pregunta sigue siendo la misma que antes.

Mi razonamiento (que debería haber mostrado originalmente) fue el siguiente.

Sustituya el $e$ con un número real $a$ y que $x_k$ ser i.i.d $\text{Uniform}(0,1)$ -variables. Así, para $k>1$ tenemos:

$u_k=u_1 \prod\limits_{i=1}^{k-1}ax_i$

$\log u_k = \log{u_1} + \sum\limits_{i=1}^{k-1}(\log{a}+\log{x_i})$

$\color{red}{E(\log{u_k})}=-1+(k-1)(\log{a}-1)\color{red}{=k(\log{a}-1)-\log{a}}$

$a>e \implies \lim\limits_{k\to\infty}E(\log{u_k})=\infty \implies \lim\limits_{k\to\infty}E(u_k)=\infty$ . Pensé que podíamos concluir que el número esperado de $u$ para que su suma supere $1$ es finito. Pero ésta es una conclusión inválida, como demuestra el siguiente contraejemplo. Consideremos la variable aleatoria $v$ donde $P(v_1=0)=P(v_1=1)=\frac12$ y $v_{k}=2v_{k-1}$ para $k>1$ . Tenemos $\lim\limits_{k\to\infty}E(v_k)=\infty$ pero el número esperado de $v$ para que su suma supere $1$ es no finito.

$a<e \implies E(\log{u_k})<\log{p^k}$ para algunos $p<1$ y suficientemente grande $k$ . Pensé que podíamos concluir que, dado que $\sum\limits_{k=s}^\infty p^k$ es inferior a $1$ para un $s$ Así que $\sum\limits_{k=1}^\infty u_k$ puede ser inferior a $1$ por lo que el número esperado de $u$ para que su suma supere $1$ debe ser infinito. Pero para llegar a tal conclusión, lo que realmente necesitaba era $\log{u_k}<\log{p^k}$ para algunos $p$ y suficientemente grande $k$ que yo no tenía.

Ciertamente, si $a\le 1$ entonces la expectativa es infinita .

Doy las gracias a @ChristianRemling por no dar por buenas mis afirmaciones.

Esta pregunta parece ser mucho más difícil de lo que había pensado.

EDITAR 2

Las respuestas hasta ahora han establecido que la expectativa es efectivamente finita para $a>e$ e infinito para $a<e$ . Un enfoque que todavía no he visto, sería utilizar simulaciones por ordenador para aproximar numéricamente la expectativa con valores de $a$ ese enfoque $e$ desde arriba, por ejemplo $3, 2.9, 2.8, 2.75, 2.72,$ etc. Esto podría sugerir cuál es la expectativa cuando $a=e$ . (No dispongo de la tecnología adecuada para realizar tales simulaciones).

5voto

Chad Okere Puntos 3181

Podemos probar el método de la segunda respuesta a la primera pregunta que enlazaste. Al principio pensé que eso lo aclararía todo, pero se basaba en un error de cálculo. Ahora por fin puedo demostrar algo (a saber, que la ecuación integral para la expectativa que deduzco a continuación tiene solución finita para $c>e$ ), aunque esto no se acerca mucho a lo que preguntaba el OP.

Sea $X_j$ sea iid y esté uniformemente distribuida en $[0,1]$ y $$ S_n = X_1 +cX_1X_2+ \ldots + c^{n-1} X_1X_2\cdots X_n . $$ Defina $N(x)=\min\{ n\ge 1: S_n\ge x\}$ y $f(x)=EN(x)$ . Nos interesa entonces $f(1)$ .

Observe que $S_n=X_1(1+cT_{n-1})$ aquí $T_{n-1}$ es independiente de $X_1$ y tiene la misma distribución que $S_{n-1}$ . Condición en $X_1$ : $$ E(N(x)|X_1=y)=\begin{cases} 1 & y\ge x\\ 1+ f((x-y)/(cy)) & y<x\end{cases} \quad\quad (1) $$ Entonces tenemos $$ f(x) = \int_0^1 E(N(x)|X_1=y)\, dy , $$ y ahora (1) y una sustitución dan como resultado $$ f(x) = 1 + cx \int_{\max \{ 0,(x-1)/c\} }^{\infty} \frac{f(t)}{(1+ct)^2}\, dt . \quad\quad (2) $$

Podemos demostrar que (2) tiene solución $f(x)<\infty$ para $c>e$ Como señala Iosif en un comentario más abajo, no está claro qué significa esto.

Argumentamos lo siguiente: Ver (2) como una ecuación $f=1+Lf$ en el espacio $X=C^{b}_w([0,\infty))$ es decir, funciones $g=wh$ con $h$ acotada y continua y con peso $w(x)=(1+cx)^{\alpha}$ y norma $\|g\|=\|h\|_{\infty}$ . Entonces, para $x\ge 1$ , \begin{align*} \frac{|(Lg)(x)|}{\|g\|_X} & \le \frac{cx}{(1+cx)^{\alpha}}\int_{(x-1)/c}^{\infty} (1+ct)^{\alpha-2}\, dt \\ & = \frac{x^{\alpha}}{(1-\alpha)(1+cx)^{\alpha}} \le \frac{1}{(1-\alpha)c^{\alpha}} . \end{align*} Esto puede hacerse $<1$ para $c>e$ tomando $\alpha\to 0+$ . Un cálculo similar funciona para $0\le x\le 1$ . Así que si $c>e$ estamos ante una contracción, y por tanto (2) tiene una solución que satisface $f(x)=O(x^{\alpha})$ para todos $\alpha>0$ que podemos encontrar iterando (2).

5voto

Brownie Puntos 151

He aquí un argumento probabilístico para la afirmación de OP, que muestra que la expectativa es finita para $a>e$ e infinito para $a<e$ .

Entorno. Sea $(\tau_k)_{k\geq 1}$ denotan una secuencia de i.i.d. $\text{Exp}(1)$ variables. Sea $\mu=\log a$ para que $a = e^{\mu}$ y considerar la suma

$$ S_n = \sum_{k=1}^{n} e^{(k-1)\mu - X_k}, \qquad X_k = \sum_{j=1}^{k} \tau_j. $$

Observando que $e^{-\tau_k}\sim\text{Uniform}(0,1)$ Esta es la misma configuración que en OP. Entonces nos interesa la expectativa del tiempo de parada

$$ N(x) = \inf\{ n \geq 1 : S_n > x \}. $$

Caso $a < e$ . En este caso, SLLN dice que

$$ \sqrt[k]{e^{(k-1)\mu - X_k}} \longrightarrow e^{\mu-1} < 1 \qquad\text{a.s.,} $$

de ahí $S_n$ converge a.s., digamos, a $S_{\infty}$ . Entonces, observando que

$$ S_{\infty} = e^{-\tau_1}( 1 + e^{\mu} \tilde{S}_{\infty} ) $$

para algunos $\tilde{S}_{\infty} \stackrel{d}= S_{\infty}$ independiente de $\tau_1$ es fácil demostrar que

\begin{align*} \mathbf{P}(N(1) = \infty) &= \mathbf{P}(S_{\infty}\leq 1) \\ &= \int_{0}^{\infty} e^{-t} \mathbf{P}\biggl(S_{\infty} \leq \frac{e^t - 1}{e^{\mu}} \Biggr) \, \mathrm{d}t > 0. \end{align*}

Por lo tanto, $\mathbf{E}[N(1)] = \infty$ .

Caso $a > e$ . En este caso, $\mu > 1$ . Definir el tiempo de parada $T$ por

$$ T = \inf\{k \geq 1: (k-1)\mu > X_k\}. $$

Entonces SLLN muestra que $T$ es finito a.s. Además, como $S_T > 1$ se cumple, tenemos $N(1) \leq T$ . Por lo tanto,

\begin{align*} \mathbf{P}(N(1) > n) &\leq \mathbf{P}(T > n) \\ &\leq \mathbf{P}((n-1)\mu \leq X_n). \end{align*}

Utilizando $X_n \sim \text{Gamma}(n)$ y aplicando el límite de Chernoff, podemos demostrar que la última línea está además limitada por $e^{\mu-1-nI(\mu)}$ donde $I(\mu)=\mu-1-\log\mu>0$ . 1) En consecuencia,

$$ \mathbf{E}[N(1)] = \sum_{n=0}^{\infty} \mathbf{P}(N(1) > n) \leq e^{\mu-1}\sum_{n=0}^{\infty} e^{-nI(\mu)} < \infty. $$


Adenda. He aquí una simulación numérica de $\mathbf{E}[N(1)]$ en función de $\log\frac{1}{a-e}$ donde $a > e$ utilizando $n=10^5$ muestras:

log 1/(a-e) versus expected number of terms

Esto parece insinuar que $\mathbf{E}[N(1)] = \infty$ para $a = e$ aunque no tengo ni idea de cómo explicar este resultado.


1) Mi encuadernación original era de la forma $\mathcal{O}(e^{-\varepsilon\sqrt{n}})$ como consecuencia de una estimación similar a la de CLT. Sin embargo, las estimaciones con grandes desviaciones dan mejores resultados. Gracias @Pierre PC por señalarlo.

1voto

Tobias Puntos 126

La ecuación integral en la respuesta de Christian Remling se puede escribir:

$$\frac{f(x)-1}{x}=c \int_{\max\{0,(x-1)/c\}}^\infty \frac{f(t)}{(1+ct)^2}dt$$

Diferenciar y multiplicar por $x^2$ da

$$x f'(x)+1-f(x)=-f\left(\frac{x-1}{c}\right)\text{ for }x>1$$

Esto tiene una solución cercana a $$f(x)\sim a + \frac{\log(x+\frac{1}{c-2})}{\log c - 1}\ \text{ for }c>e,\ x>1$$ en el sentido de que hace que la ecuación diferencial sea exacta hasta el orden $O(1/x^2)$ y que para $c<e$ el valor de $f$ sería negativo y no tendría sentido. También podemos obtener más precisión con más términos, por ejemplo $x+\frac{1}{c-2}+\frac{1}{2(c-2)^2(c^2-3)}x^{-1}$ para $O(1/x^3)$ .

Así que la ecuación en su conjunto tiene una solución cercana para $c>e$ de $$f(x)\sim 1+\Big(\!\min\{x,1\}\Big)\Big(a - 1 + \frac{\log(\max\{x,1\}+\frac{1}{c-2})}{\log c - 1}\Big)$$

En $x=1$ esto da $$f(1)=a+\frac{\log(1+\frac{1}{c-2})}{\log c -1}$$ lo que sugiere que una condición de contorno adicional podría ser suficiente para dar una buena respuesta aproximada a la pregunta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X