3 votos

es la media aritmética de la distribución.

Aquí está una declaración que me gustaría probar:

Deje $X \sim \mathcal{N}(\mu, 1)$. Deje $\nu >0$, muestran que $$ -\log \mathbb{E}\left[\exp\left(-|X|^\nu\right)\right] \quad\underset{\mu \+\infty}{\sim}\quad \mu^\nu $$ donde$f(x) \sim g(x)$$f(x) = g(x) + o(g(x))$.

He comprobado numéricamente que siempre se verifica lo $\nu>0$, pero no puedo demostrarlo.

Intento de la prueba: Aquí es lo que he intentado: \begin{align} \mathbb{E}\left[\exp\left(-|X|^\nu\right)\right] = \sum_{k=0}^\infty \frac{(-1)^k}{k!}\mathbb{E}\left[|X|^{\nu k}\right] \end{align} Tenemos, por cualquier $p>0$ [ver aquí] $$ \mathbb{E}\left[|X|^{p}\right] = \frac{2^{\frac{p}{2}} \Gamma[\frac{1}2 +\frac{p}{2}]}{\sqrt{\pi}} M\left(-\frac{p}2, \frac12, -\frac{\mu^2}2\right) $$ donde M es la Kummer función. Y hemos [ver aquí] $$ M\left(-\frac{p}2, \frac12, -\frac{\mu^2}2\right) \quad\underset{|\mu| \to \infty}{\sim}\quad \frac{\Gamma(1/2) \left(\frac{\mu^2}2\right)^{\frac{p}2}}{\Gamma(\frac12 + \frac{p}2)} $$ Pluging de estos dos juntos dan $$ \mathbb{E}\left[|X|^{p}\right] \quad\underset{\mu \+\infty}{\sim}\quad \mu^p $$ Ahora me gustaría que a la conclusión de que \begin{align} \mathbb{E}\left[\exp\left(-|X|^\nu\right)\right] &\quad\underset{\mu \to +\infty}{\sim}\quad \sum_{k=0}^\infty \frac{(-1)^k}{k!}\mu^{k \nu} = \exp\left(-\mu^{\nu}\right) \end{align} pero no puedo porque no tengo ningún control sobre el término de error con respecto a $k$ (en orden de uso dominado o monótono convergencia argumentos). Tal vez esta referencia podría ayudar: aquí.

Nota 1: también he intentado usar el método Delta, pero no lo he conseguido.

Nota 2: En el hecho de que la declaración que necesito es un poco más débil: $$ \log\left[C_\nu\log \mathbb{E}\left[\exp\left(-|X|^\nu\right)\right] \right]\quad\underset{\mu \to \infty}{\sim}\quad \nu \log \mu $$ donde $C_\nu$ es una constante garantizar la cantidad en el interior de la exterior de registro a ser positivo cuando se $|\mu|>0$.

2voto

Michael Puntos 5270

Aquí es un argumento para $\leq$:

Fix $v>0$. Definir $f:[0,\infty)\rightarrow\mathbb{R}$$f(y) = \exp(-y^v)$. Entonces: \begin{align} f'(y) &= -vy^{v-1} \exp(-y^v)\\ f''(y) &= [(vy^{v-1})^2 + -v(v-1)y^{v-2}]\exp(-y^v) \end{align} Observe que si $0 < v \leq 1$ $f$ es una función convexa sobre el dominio $y \geq 0$. Además, si $v>1$, hay un umbral de $\theta>0$ tal que $f$ es convexa $[\theta, \infty)$.

Caso $0 < v \leq 1$:

Por la convexidad de $f$ para este caso obtenemos por la desigualdad de Jensen: $$ E[\exp(-|X|^v)] = E[f(|X|)] \geq f(E[|X|]) = \exp(-E[|X|]^v) $$ Tomando $-\log()$ de ambos lados, se obtiene: $$ \boxed{-\log(E[\exp(-|X|^v)]) \leq E[|X|]^v} $$ De hecho esto es válido para cualquier variable aleatoria $X$ que $E[|X|]$ es finito. Observe que si $X$ $N(\mu,1)$ $\mu$ es grande,$E[|X|]\approx \mu$. Esto es debido a que: $$ |X| = X - 2X1\{X<0\} \implies E[|X|] = \mu - 2E[X1\{X<0\}] $$ y $E[X1\{X<0\}]$ es muy pequeña cuando se $\mu\rightarrow\infty$.

Caso $v>1$:

Recordemos que $f(y)$ es convexa $y \in [\theta, \infty)$. Definir el evento $A=\{|X|\geq \theta\}$. Luego de tomar las expectativas acondicionado en $A$ nos metemos por un argumento similar: $$ \boxed{-\log(E[\exp(-|X|^v) \: |A]) \leq E[|X| \: | A]^v} $$ Ahora, cuando $\mu\rightarrow \infty$ obtenemos $P[A]\rightarrow 1$ también $E[|X|] \approx \mu$ grandes $\mu$.

1voto

Michael Puntos 5270

Aquí es un enfoque para el límite inferior (ver mi otra respuesta para el límite superior).

Revisión $v>0$, $\mu>1$ y deje $X$$N(\mu, 1)$. Definir el evento $B_{\mu} = \{\mu - \sqrt{\mu} \leq X \leq \mu + \sqrt{\mu}\}$ y tenga en cuenta que $\lim_{\mu\rightarrow\infty} P[B_{\mu}] =1$. Desde $\mu>1$ sabemos $\mu - \sqrt{\mu}>0$. Por Taylor teorema tenemos, si $x \in [\mu - \sqrt{\mu}, \mu + \sqrt{\mu}]$: $$ \exp(-x^v) \leq \exp(-\mu^v) + (x-\mu)(-v\mu^{v-1}) \exp(-\mu^v) + \frac{(x-\mu)^2}{2}\exp(-\mu^v)h(\mu) $$ donde $h(\mu)$ depende también de $v$ y no voy a escribirlo ya que soy un vago...

Por lo tanto, acondicionado en $B_{\mu}$: $$ E[\exp(-X^v) | B_{\mu}] \leq \exp(-\mu^v) + \underbrace{E[X-\mu | B_{\mu}]}_{=0}(-v\mu^{v-1})\exp(\mu^v) + \underbrace{E\left[\frac{(X-\mu)^2}{2} | B_{\mu} \right]}_{\leq 1/2}\exp(-\mu^v)h(\mu)$$ donde el underbrace valores debido a que la distribución de $X$ es simétrico con respecto al $\mu$, y el acondicionamiento de estar en un intervalo alrededor de a $\mu$ reduce la varianza. Obtenemos: $$ E[\exp(-X^v)|B_{\mu}] \leq \exp(-\mu^v)[ 1 + (1/2)h(\mu)] $$ Tomando el $-\log(\cdot)$ de ambos lados da $$ \boxed{-\log(E[\exp(-X^v)|B_{\mu}])\geq \mu^v - \log(1 + (1/2)h(\mu))} $$ y si alguien es menos perezoso que yo, esa persona podría mostrar $\log(1+(1/2)h(\mu))$ es asintóticamente insignificante en comparación a $\mu^v$.

A continuación, tenga en cuenta que para un gran $\mu$ tenemos $P[B_{\mu}]\approx 1$$X=|X|$, con alta probabilidad, que conduce al resultado deseado.

1voto

Charles Puntos 11

A continuación he terminado de Michael y a prueba de plantear un problema.

1. Recordemos que $$ f"(\mu) = \left[ \mu^{\nu} + (1 - \nu) \right] \nu \mu^{\nu-2} e^{-\mu^\nu} $$ He decidido centrarse en$x \in [\mu - \mu^\rho, \mu + \mu^\rho]$$0 < \rho <1$. Y he definir $$h(\mu) = 2 \nu (\mu - \mu^{\rho})^{2\nu-2} \exp(\mu^\nu - (\mu - \mu^{\rho})^{\nu})$$ que, por $\mu$ lo suficientemente grande, $\exp(-\mu^\nu)h(\mu) \geq f''(x)$ todos los $x \in [\mu - \mu^\rho, \mu + \mu^\rho]$, y, a continuación, el objetivo de la desigualdad tiene $$ \exp(-x^v) \leq \exp(-\mu^v) + (x-\mu)(-v\mu^{v-1}) \exp(-\mu^v) + \frac{(x-\mu)^2}{2}\exp(-\mu^v)h(\mu) $$

It remains to show that $\log(1+h(\mu)/2)$ is negligeable for all $\nu >0$ in comparison to of $\mu^\nu$. Tenemos $$ \log(1 + h(\mu)/2) \sim \log(h(\mu)/2) = \log \nu + (2\nu-2)\log(\mu - \mu^{\rho}) + \mu^\nu - (\mu - \mu^{\rho})^{\nu} $$ Y el resultado sigue como $$ (\mu - \mu^{\rho})^{\nu} = \mu^\nu (1-\mu^{\rho-1})^{\nu} = \mu^\nu (1+o(1)) = \mu^\nu + o(\mu^\nu) $$ Después de entonces de Michael argumentos, el resultado es cierto para todos los $\nu >0$.

2. Sin embargo, tengo un problema. Para $\nu=2$, sé que $$ -\log \mathbb{E}\left[\exp\left(-|X|^2\right)\right] = \frac13 \mu^2 + \frac12 \log 3 $$ lo que contradice el resultado por el factor de $1/3$ (convolución de una gaussiana de la varianza 1, con una gaussiana de la varianza 2). Consulte con Maple

-log(int(1/sqrt(2*Pi)*exp(-x^2)*exp(-(x-mu)^2/2), x=-infinity..infinity));

Mi simulaciones numéricas muestran que la asymptotical comportamiento es $\mu^\nu$$\nu < 2$, pero ni por $\nu =2$. Para $\nu > 2$, mi simulaciones son demasiado inestables para hacer cualquier conclusión. Donde está en la prueba de la razón para descartar $\nu = 2$?

Podemos comprobar con Arce que funciona para $\nu=1$ (Arce no puede resolver de otra manera)

> limit(-log(int(1/sqrt(2*Pi)*exp(-abs(x)^1)*exp(-(x-mu)^2/2), x=-infinity..infinity))/mu^1, mu=infinity);
1

> limit(-log(int(1/sqrt(2*Pi)*exp(-abs(x)^2)*exp(-(x-mu)^2/2), x=-infinity..infinity))/mu^2, mu=infinity);                                                                          
1/3

Gracias

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X