6 votos

Sobre la aproximación de la varianza de una variable subgaussiana positiva (y acotada)

Consideremos una variable aleatoria $X \ge 0$ que toma valores en un intervalo $[0, b]$ y además $$ \text{P}(X \ge t) \le C \exp\left(\frac{-t^{2}}{B}\right), \quad \forall t \ge 0, $$ para unas constantes dadas $C \gg 1$ y $B >0$ .

Desde $X$ está acotada, es una variable subgaussiana, y su varianza proxy puede ser acotada superiormente por $O\left((b-0)^{2}\right)$ en función de la longitud del intervalo.

Q1: En primer lugar, una aclaración sobre la definición: si ignoramos temporalmente el hecho de que $X$ está acotado (pero teniendo en cuenta que $X \ge 0$ ), entonces, ¿es el límite de cola anterior suficiente para decir que $X$ es subgaussiano? (Por ejemplo, ¿el valor de $C$ asunto).

Q2: Utilizando el límite de la cola, ¿es posible obtener un mejor límite superior en el proxy de la varianza? En particular, vi una afirmación de que, basándose en el límite de cola anterior, los momentos de $X-\mathbb{E}[X]$ pueden ser acotados por los de una gaussiana con varianza $O(B \sqrt{\log{C}})$ . ¿Es eso cierto?

Editar : Para acotar todos los momentos de $X-\mathbb{E}[X]$ por las de una gaussiana con varianza $\gamma$ Tendría que demostrar que $X-\mathbb{E}[X]$ es sub-Gaussiano con varianza proxy $\gamma > 0 $ , es decir que $\mathbb{E}[e^{s(X-\mathbb{E}[X])}] \le e^{s^{2}\gamma/2}$ . Motivado por la respuesta de Michael, que da un límite superior a la varianza $\sigma^{2}$ de $X$ podríamos plantear la pregunta de la siguiente manera: ¿existe una conexión directa entre $\gamma$ y $\sigma^{2}$ ? Veo una pregunta relacionada aquí: Proxy de la varianza de una variable aleatoria subgaussiana por su varianza

1voto

Michael Puntos 5270

Considerando ambos límites, sabemos que: $$P[X > t] \leq \left\{ \begin{array}{ll} \min[1,C e^{-t^2/B}] &\mbox{ if $t \in [0,b)$} \\ 0 & \mbox{ if $t\geq b$} \end{array} \right. $$ Esta es la cota más ajustada ya que podemos considerar una variable aleatoria $W$ con $P[W>t]$ dada exactamente por el lado derecho de la desigualdad anterior. Obsérvese que $C e^{-t^2/B} \geq 1$ siempre que $t \in [0, \sqrt{B\log(C)}]$ . Para simplificar, supongamos que $b \geq \sqrt{B\log(C)}$ .

Sabemos que, para variables aleatorias generales no negativas $Y$ tenemos $Y=\int_{0}^{\infty} 1\{Y>t\}dt$ y por lo tanto $E[Y]=\int_{0}^{\infty}P[Y>t]dt$ . Así,

\begin{align} E[X^2] &= \int_{0}^{\infty} P[X^2>t]dt \quad \mbox{[since $X^2 \geq0$]}\\ &= \int_0^{\infty} P[X > \sqrt{t}]dt \quad \mbox{[since $X \geq 0$]}\\ &=\int_0^{B\log(C)} \underbrace{P[X>\sqrt{t}]}_{\leq 1}dt + \int_{B\log(C)}^{b^2}\underbrace{P[X>\sqrt{t}]}_{\leq Ce^{-t/B}}dt \quad \mbox{[since $P[X>b]=0$]} \\ &\leq B\log(C) + -CBe^{-t/B}|_{B\log(C)}^{b^2}\\ &=B\log(C) + B - CBe^{-b^2/B} \end{align} Este es el mejor límite superior de $E[X^2]$ ya que se mantiene con igualdad para la variable aleatoria $W$ definida anteriormente. Un límite más simple es entonces $E[X^2] \leq B\log(C) + B$ y esto se mantiene independientemente del valor de $b$ . (Incluso se mantiene cuando $0\leq b < \sqrt{B\log(C)}$ ya que la reducción del valor de $b$ no puede aumentar el límite).

En particular, $\sigma=\sqrt{Var(X)} \leq \sqrt{E[X^2]} \leq \sqrt{B + B\log(C)}$ .

1voto

jms Puntos 6

(Me he dado cuenta de que la afirmación de mi segunda pregunta es cierta. Comparto un boceto de prueba para futuras referencias).


Dejemos que $\mu = \mathbb{E}\left[{X}\right]$ , y definir $Y = X- \mu$ . Basta con demostrar que $$ \mathbb{E} \left[ \exp\left(\lambda \cdot Y\right) \right] \le \exp\left(\frac{1}{2} \cdot \sigma^{2} \cdot \lambda^{2}\right), \quad \lambda \in \mathbb{R}, $$ para $\sigma^{2} = O(B\sqrt{\log{C}})$ . (En la secuela, asumo que $\log{C} \ge 1$ .)

En primer lugar, derivamos un límite superior para los momentos absolutos de $Y$ : \begin{align} \mathbb{E} \left[ \left\lvert{Y}\right\rvert^{p} \right] = \mathbb{E} \left[ |{X} - \mu |^{p} \right] \le \mathbb{E}\left[ \max\left\lbrace {X}, \mu\right\rbrace^{p} \right] \le \mathbb{E}\left[ {X}^{p} \right] + \mu^{p}, \end{align} donde hemos tenido en cuenta que $X\ge 0$ y a su vez $\mu \ge 0$ . Ahora, $X^{p}$ es una variable aleatoria no negativa, y a su vez \begin{align} \mathbb{E}\left[ X^{p} \right] &= \int_{0}^{\infty} \mathrm{P}\left( {X}^{p} \ge u\right) du = \int_{0}^{\infty} \mathrm{P}\left( {X}^{p} \ge t^{p}\right) \cdot {p} \cdot t^{p-1} dt \nonumber\\ &= \int_{0}^{\infty} \mathrm{P}\left( {X} \ge t\right) \cdot {p} \cdot {t^{p-1}} dt \nonumber\\ &= \underbrace{ \int_{0}^{t_{0}} \mathrm{P}\left( {X} \ge t\right) \cdot {p} \cdot {t^{p-1}} dt }_{I_{1}} + \underbrace{ \int_{t_{0}}^{\infty} \mathrm{P}\left( {X} \ge t\right) \cdot {p} \cdot {t^{p-1}} dt, }_{I_{2}} \label{sug-gaussian:X-pth-moment-start-ub} \end{align} para cualquier $t_{0} \ge 0$ . Para $t_{0} = ({B}\sqrt{\log{C}})^{1/2}$ tenemos \begin{align} I_{1} = \int_{0}^{t_{0}} \mathrm{P}\left( {X} \ge t\right) \cdot {p} \cdot {t^{p-1}} dt \le \int_{0}^{t_{0}} {p} \cdot {t^{p-1}} dt = t_{0}^{p} = \left({B}\sqrt{\log{C}}\right)^{p/2}. \label{sug-gaussian:I1-ub} \end{align} Para la segunda parte, dejemos que $f(t) = {C} \cdot e^{-t^{2}/B}$ y $g(t) = e^{-t^{2}/\left({B}\sqrt{\log{C}}\right)}$ . Se puede comprobar que $f(t) \le g(t)$ para $t \ge ({B}\sqrt{\log{C}})^{1/2}$ (suponiendo que $\log{C} \ge 1$ ). Entonces, \begin{align} I_{2} &= \int_{t_{0}}^{\infty} \mathrm{P}\left( {X} \ge t\right) \cdot {p} \cdot {t^{p-1}} dt \le \int_{t_{0}}^{\infty} f(t) \cdot {p} \cdot {t^{p-1}} dt %\nonumber\\& \le \int_{t_{0}}^{\infty} g(t) \cdot {p} \cdot {t^{p-1}} dt, \label{sug-gaussian:I2-ub} \end{align} De ello se deduce que para la elección particular de $t_{0}$ , \begin{align} I_{2} &\le \int_{t_{0}}^{\infty} g(t) \cdot {p} \cdot {t^{p-1}} dt \le \int_{0}^{\infty} g(t) \cdot {p} \cdot {t^{p-1}} dt \nonumber\\ &\le \int_{0}^{\infty} e^{-t^{2}/(B\sqrt{\log{C}})} \cdot {p} \cdot {t^{p-1}} dt = (B \sqrt{\log{C}})^{p/2} \cdot \frac{p}{2} \cdot \Gamma\left( \frac{p}{2}\right) \end{align} Combinando los límites de las dos partes, tenemos \begin{align} \mathbb{E}\left[ X^{p} \right] \le \left({B}\sqrt{\log{C}}\right)^{p/2} \cdot \left( 1 + \frac{p}{2} \cdot \Gamma\left( \frac{p}{2}\right) \right). \end{align} Específicamente para $p=1$ encontramos \begin{align} \mu = \mathbb{E}\left[ X\right] \le 2 \cdot \left({B}\sqrt{\log{C}}\right)^{1/2}. \label{sub-gaussian:ub-on-mean} \end{align} Además, para cualquier $p \ge 2$ , \begin{align} \mathbb{E}\left[ X^{p} \right] \le \left({B}\sqrt{\log{C}}\right)^{p/2} \cdot 2^{p} \cdot \left( \frac{p}{2}\right)^{p/2}. \end{align} Finalmente, combinando lo anterior encontramos que para cualquier $p \ge 2$ , $$ \mathbb{E} \left[ \left\lvert{Y}\right\rvert^{p} \right] \le c^{\prime} \left({B}\sqrt{\log{C}}\right)^{p/2} \cdot 2^{p} \cdot \left( \frac{p}{2}\right)^{p/2}, $$ para alguna constante positiva $c^{\prime}$ .

Teniendo el límite superior anterior en $\mathbb{E}\left[ |Y|^{p}\right]$ , podemos demostrar ahora (véase el lema 5.5 en https://arxiv.org/pdf/1011.3027v7.pdf que \begin{align} \mathbb{E} \left[ \exp\left({\lambda}{Y}\right) \right] &= \exp(O\left((B\sqrt{\log{C}})^{2}\lambda^{2}\right)) \end{align} que es el resultado deseado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X