35 votos

Valor esperado de un logaritmo natural

Yo sé que $E(aX+b) = aE(X)+b$ con $a, b$ constantes, así que dado $E(X)$, es fácil resolver. También sé que no se puede aplicar eso cuando se trata de una función no lineal, como en este caso $E(1/X) \neq 1/E(X)$, y para resolver eso, tengo que hacer una aproximación con la serie de Taylor. Entonces, mi pregunta es ¿cómo resuelvo $E(\ln(1+X))$?? ¿también debo aproximar con Taylor?

5 votos

Sí, puedes aplicar el método delta en este caso.

6 votos

También deberías investigar la Desigualdad de Jensen.

43voto

Arve Puntos 1056

En el paper

Y. W. Teh, D. Newman and M. Welling (2006), Un algoritmo de inferencia bayesiana variacional colapsado para asignación latente de Dirichlet, NIPS 2006, 1353–1360.

se utiliza una expansión de Taylor de segundo orden alrededor de $x_0=\mathbb{E}[x]$ para aproximar $\mathbb{E}[\log(x)]$:

$$ \mathbb{E}[\log(x)]\approx\log(\mathbb{E}[x])-\frac{\mathbb{V}[x]}{2\mathbb{E}[x]^2} \>. $$

Esta aproximación parece funcionar bastante bien para su aplicación.

Modificándolo ligeramente para que encaje en la pregunta en cuestión, y utilizando la linealidad de la expectativa, obtenemos,

$$ \mathbb{E}[\log(1+x)]\approx\log(1+\mathbb{E}[x])-\frac{\mathbb{V}[x]}{2(1+\mathbb{E}[x])^2} \>. $$

Sin embargo, puede suceder que uno de los lados, ya sea el izquierdo o el derecho, no exista mientras que el otro sí, por lo que se debe tener cuidado al emplear esta aproximación.

3 votos

Curiosamente, esto se puede usar para obtener una aproximación de la función digamma.

10voto

JoanComasFdz Puntos 131

También, si no necesitas una expresión exacta para $\text{E}[\log(X + 1)]$, a menudo el límite dado por la desigualdad de Jensen es suficiente: $$ \log [\text{E}(X) + 1] \geq\text{E}[\log(X + 1)] $$

0 votos

Solo quería agregar: si no es posible hacer un cálculo directo y se analiza una única variable $X$, la desigualdad de Jensen es prácticamente su única opción para obtener algún resultado útil. si bien es cierto que la aproximación de Taylor sugerida puede funcionar en la práctica, no hay justificación teórica que pueda utilizarse para justificar la eliminación de los términos restantes. (dicho esto: ten en cuenta que la serie de Taylor infinita de ln(1+x) solo converge en un radio |x|<1) de todas formas.)

1 votos

Creo que debería ser $\ge$ ya que $\log$ es cóncava hacia abajo.

0 votos

@chRrr la expansión de Taylor con el teorema del resto es una justificación teórica bastante buena para motivar a ignorar los términos restantes, creo.

8voto

farzad Puntos 4180

Supongamos que $X$ tiene una densidad de probabilidad $f_X$. Antes de empezar a aproximar, recuerda que, para cualquier función medible $g$, puedes probar que $$ E[g(X)]=\int g(X)\,dP = \int_{-\infty}^\infty g(x)\,f_X(x)\,dx \, , $$ en el sentido de que si la primera integral existe, también lo hace la segunda, y tienen el mismo valor.

1 votos

Si la segunda integral existe. No es necesario. Tome la distribución de Cauchy y $g(x)=x^2$.

0 votos

Añadiría una segunda capa de pedantería al decir que en realidad necesitas $E[|g(X)|]<\infty$ para que la expectativa esté bien definida.

2 votos

@mpiktas - Esta expectativa en realidad existe pero es infinita. Un mejor ejemplo sería $g(x)=x$ para la distribución de Cauchy. Esta expectativa depende de cómo tienden al infinito los límites de integración inferior y superior.

8voto

AdamSane Puntos 1825

Existen dos enfoques habituales:

  1. Si conoces la distribución de $X$, es posible que puedas encontrar la distribución de $\ln(1+X)$ y a partir de ahí encontrar su esperanza; de forma alternativa, es posible que puedas utilizar la ley del estadístico no consciente directamente (es decir, integrar $\ln(1+x) f_{X}(x)$ sobre el soporte de $x$).

  2. Como sugieres, si conoces los primeros momentos puedes calcular una aproximación de Taylor. Sin embargo, como sugiere whuber en los comentarios, mira aquí

0 votos

Re aproximación de Taylor: consulta mi comentario stats.stackexchange.com/questions/38296/… acerca de los problemas de falta de convergencia.

0 votos

Sí, cosa importante a tener en cuenta en esta circunstancia

0voto

Hunaphu Puntos 622

La expansión alrededor de la media $\mu$ da $ \log(1+X) = \log(1+\mu) + \frac{X-\mu}{\mu+1} - \frac{(X-\mu)^2}{2(\mu+1)^2} + \mathcal{O}(X-\mu)^3 $ y $$ E[\log(1+X)] = \log(1+\mu) -\frac{V[X]}{2(\mu+1)^2} + E[\mathcal{O}(X-\mu)^3]. $$

En general, $g(X) = g(\mu) + \sum_{k=0}^n \frac{g^{(k)}(\mu)}{k!}(X-\mu)^k$ así que $$ E[g(X)] = g(\mu) + \frac{g''(\mu)}{2}V[X] + E[\mathcal{O}(X-\mu)^3]. $$

Pero, primero intentaría $\int g(x)f(x)\,dx$ o Monte Carlo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X