8 votos

Si $\mathbb{E}|X_n|=O(a_n)$ ¿Qué tan grande es $Y_n = X_n\ln\left(\frac{1}{X_n}\right)$ ?

Si $\mathbb{E}|X_n|=O(a_n)$ , donde $a_n\to 0$ y $X_n$ es una secuencia de variables aleatorias positivas, ¿cómo de grande es $Y_n = X_n\ln\left(\frac{1}{X_n}\right)$ ?

Mi intento: por la desigualdad de Markov $\mathbb{E}|X_n|=O(a_n)$ implica $X_n=O_p(a_n)$ y $Y_n = O_p(a_n)\ln\left(\frac{1}{X_n}\right)$ . Queda por evaluar $\ln\left(\frac{1}{X_n}\right)$ . Para alguna secuencia positiva de variables aleatorias $Z_n=O_p(1)$

\begin{equation} \begin{aligned} X_n = a_nZ_n& \iff \ln(X_n) = \ln(a_n) + \ln(Z_n) \\ & \iff \frac{\ln\left(\frac{1}{X_n}\right)}{\ln\left(\frac{1}{a_n}\right)} = \frac{\ln(Z_n)}{\ln(a_n)} + 1 \end{aligned} \end{equation} por lo que si demostramos que el lado derecho está acotado en probabilidad hemos terminado, ya que $a_n\to 0$ .

Por definición $Z_n = O_p(1)$ si es que hay $\varepsilon>0$ existe $M<\infty$ tal que $$\sup_{n\in\mathbb{N}}\Pr\left(Z_n>M\right)<\varepsilon.$$

De ello se deduce que para cualquier $\varepsilon>0$ existe $L=\ln(M)$ tal que $$\sup_{n\in\mathbb{N}}\Pr\left(\ln Z_n>L\right)<\varepsilon,$$ así que $\ln Z_n = O_p(1)$ y $$Y_n = O_p\left(a_n\ln\left(\frac{1}{a_n}\right)\right).$$

¿Hay fallos en mi razonamiento? ¿Hay una forma más sencilla de ver este resultado?

Mi segunda pregunta es si podemos decir algo sobre el orden en la expectativa $$\mathbb{E}\left|X_n\ln\left(\frac{1}{X_n}\right)\right| = O(?)?$$

Desde $$\ln(x) = \sum_{j=1}^\infty\frac{(-1)^{j+1}}{j}(x-1)^j,$$ parece que tener sólo el primer momento en expectativa no es suficiente. ¿Es esto correcto?

0 votos

No he revisado el cálculo de Whuber, pero creo que deberías usar $x log (x) \rightarrow 0$ no mirar cada trozo de $Y_n$ por separado

6voto

jldugger Puntos 7490

Creo que se podrían revelar muchas cosas contemplando series de variables aleatorias como las siguientes:

$$X_n = \left\{\eqalign{\frac{1}{n} & \text{ with probability } 1 - \frac{1}{f(n)^2}e^{-g(n)}\\ f(n)e^{g(n)} & \text{ with probability } \frac{1}{f(n)^2}e^{-g(n)}.}\right.$$

Más adelante identificaremos las funciones adecuadas $f$ y $g$ después de analizar el papel que desempeñan en las expectativas asintóticas. Por ahora vamos a suponer $f(n)$ es distinto de cero y ambos divergen como $n$ se hace grande, con $g(n) \ge n$ para todos $n\gt 0$ .

Por definición de la expectativa,

$$\eqalign{ \mathbb{E}(X_n) &= \frac{1}{n}\left(1-\frac{1}{f(n)^2}e^{-g(n)}\right) + f(n)e^g(n) \left(\frac{1}{f(n)^2}e^{-g(n)}\right) \\&= \frac{1}{f(n)} + \frac{1}{n} - \frac{1}{nf(n)^2}e^{-g(n)}.}$$

Evidentemente

$$\mathbb{E}(X_n) = O\left(n^{-1} + f(n)^{-1}\right),$$

permitiéndonos tomar $a_n = n^{-1} + f(n)^{-1}$ que converge a $0$ como se requiere. (Porque lo hace, y $x \log(1/x)\to 0$ como $x\to 0$ , fíjese que $a_n\log(1/a_n)\to 0$ .) No obstante, el cálculo de $\mathbb{E}(Y_n)$ incluye un término

$$f(n)e^g(n)\log\left(\frac{1}{f(n)e^{g(n)}}\right) \times \frac{1}{f(n)^2}e^{-g(n)}=-\frac{\log(f(n))}{f(n)} - \frac{g(n)}{f(n)}\tag{1}$$

El otro término, igual a

$$\frac{1}{n}\log\left(\frac{1}{1/n}\right) \times \left(1 - \frac{1}{f(n)^2}e^{-g(n)}\right) = \frac{\log{n}}{n}\left(1-\frac{1}{f(n)^2}e^{-g(n)})\right),\tag{2}$$

permanece acotado (y converge a cero).

Supongamos que $f$ diverge más lentamente que $g$ ; es decir, elegir $f$ para lo cual $g(n)/f(n)$ diverge. La suma de $(1)$ y $(2)$ asintóticamente es

$$\mathbb{E}(Y_n) = O\left(\frac{g(n)}{f(n)}\right) \to \infty.$$

Existen tales $f$ y $g$ que satisfacen todas las condiciones impuestas (positivas, divergentes, con $g(n)/f(n)$ divergentes también): por ejemplo, $g(n)=nh(n)$ (con $h(n) \ge 1$ ) y $f(n) = n^\epsilon$ funciona para cualquier $0 \lt \epsilon \lt 1$ . En consecuencia, $\mathbb{E}(Y_n)=O(h(n)n^{1-\epsilon})$ para todos $\epsilon\gt 0$ y para todas las funciones $h$ limitada por debajo por $1$ .

Esto demuestra que no hay ningún límite en la velocidad a la que $\mathbb{E}(Y_n)$ pueden divergir.

1voto

Jeff Bauer Puntos 236

Desde $X_n$ son variables aleatorias positivas, no necesitamos el valor absoluto. Tenemos

$$\{\mathbb{E}X_n\}=O(a_n) \implies \lim_{n\to \infty}\frac{\mathbb{E}X_n}{a_n} < K \in \mathbb R_{++}$$

Entonces, como también

$$a_n \to 0 \implies \mathbb{E}X_n \to 0 \implies X_n \to 0,\;\;\; n\to \infty$$

ya que son v.r. positivos. Por lo tanto, la secuencia de $X$ converge a la constante cero.

Pero entonces

$$Y_n = -X_n \ln X_n \implies \lim_{n \to \infty} Y_n =0 $$

...o tal vez plims.

¿Me estoy perdiendo algo?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X