42 votos

Teniendo la expectativa de que la serie de Taylor (sobre todo el resto)

Mi pregunta se refiere tratando de justificar ampliamente utilizado el método, es decir, tomando el valor esperado de la Serie de Taylor. Supongamos que tenemos una variable aleatoria $X$ con un resultado positivo de $\mu$ y variación de $\sigma^2$. Además, tenemos una función, digamos, $\log(x)$.

Haciendo Expansión de Taylor de $\log X$ alrededor de la media, obtenemos $$ \log X = \log\mu + \frac{X - \mu}{\mu} - \frac12 \frac{(X-\mu)^2}{\mu^2} + \frac13 \frac{(X - \mu)^3}{\xi_X^3}, $$ donde, como de costumbre, $\xi_X$ es s.t. $|\xi_X - \mu| < |X - \mu|$.

Si tomamos una expectativa, vamos a obtener un aproximado de la ecuación que la gente generalmente se refieren como algo auto-evidente (véase el $\aprox signo$ en la primera ecuación de aquí): $$ \mathbb{E}\log X \approx \log \mu \frac12 \frac{\sigma^2}{\mu^2} $$

PREGUNTA: estoy interesado en cómo demostrar que el valor esperado del resto término es en realidad insignificante, es decir, $$ \mathbb{E}\left[\frac{(X - \mu)^3}{\xi_X^3}\right] = o(\sigma^2) $$ (o, en otras palabras, $\mathbb{E}\bigl[o(X-\mu)^2\bigr] = o\bigl(\mathbb{E}\bigl[(X-\mu)^2\bigr]\bigr)$).

Lo que traté de hacer: suponiendo que $\sigma^2 \to 0$ (que, a su vez, significa que $X \a \mu$ en $\mathbb{P}$), he intentado dividir la integral en dos, alrededor de $\mu$ con $\varepsilon$-vecindad de $N_\varepsilon$: $$ \int_\mathbb{R} p(x)\frac{(x-\mu)^3}{\xi_x^3} \,dx = \int_{x \N_\varepsilon} \ldots dx + \int_{x \noen N_\varepsilon} \ldots dx $$

La primera puede ser limitada debido al hecho de que $0 \noen N_\varepsilon$ y por tanto $1/\xi^3$ no le molesta. Pero con el segundo hemos concurriendo dos hechos: por un lado $$ \mathbb{P}(|X - \mu| > \varepsilon) \a 0 $$ (como $\sigma^2 \to 0$). Pero, por otro lado, no sabemos qué hacer con $1/\xi^3$.

Otra posibilidad podría ser que se trate de usar la Fatou del lema, pero no puedo averiguar cómo.

Le agradecemos cualquier ayuda o sugerencia. Me doy cuenta de que esta es una especie de muy técnicos, pero tengo que ir a través de él en orden a confiar en la "Taylor-expectativa" método. Gracias!

P. S. llegué aquí, pero parece que es un poco de otra cosa.

32voto

Estela Puntos 26

Tiene usted derecho a ser escéptico de este enfoque. La serie de Taylor método no funciona en general, aunque la heurística contiene un núcleo de verdad. Para resumir el debate técnico, a continuación,

  • Fuerte concentración implica que la serie de Taylor método funciona para funciones interesantes
  • Las cosas pueden y van a ir drásticamente mal para el pesado de cola de las distribuciones o no-tan-agradable funciones

Como Alecos la respuesta se indica, esto sugiere que el Taylor-método series deberían ser eliminados si los datos han pesadas colas. (Profesionales de las finanzas, yo estoy mirando a ti).

Como Elvis señaló, el problema clave es que la varianza no control de los momentos de orden superior. Para ver por qué, vamos a simplificar su pregunta tanto como sea posible para llegar a la idea principal.

Supongamos que tenemos una secuencia de variables aleatorias $X_n$ con $\sigma(X_n)\to 0$ como $n\to \infty$.

P: ¿Podemos garantizar que $\mathbb{E}[|X_n-\mu|^3] = o(\sigma^2(X_n))$ como $n\to \infty?$

Desde allí son variables aleatorias con finito segunda momentos infinito y tercer momentos, la respuesta es un enfático no. Por lo tanto, en general, la serie de Taylor método falla incluso para 3er grado de los polinomios. Repitiendo este argumento muestra que usted no puede esperar que la serie de Taylor método para proporcionar resultados precisos, incluso para los polinomios, a menos que todos los momentos de la variable aleatoria están bien controlados.

Entonces, ¿qué vamos a hacer? Ciertamente, el método funciona para delimitadas las variables aleatorias cuyo apoyo converge a un punto, pero esta clase es demasiado pequeño como para ser interesante. Supongamos que en lugar de que la secuencia de $X_n$ proviene de algunos altamente concentrada de la familia que satisface (decir)

$$\mathbb{P}\left\{ |X_n-\mu|> t\right\} \le \mathrm{e}^{- C n t^2} \etiqueta{1}$$

por cada $t>0$ y $C>0$. Tales variables aleatorias son sorprendentemente comunes. Por ejemplo, cuando $X_n$ es el empírico significa

$$ X_n := \frac{1}{n} \sum_{i=1}^n Y_i$$

de niza variables aleatorias $Y_i$ (por ejemplo, iid y limitado), varios de concentración de las desigualdades implica que $X_n$ satisface (1). Un argumento estándar (ver pág. 10 aquí) límites de la $p$th momentos para tales variables aleatorias:

$$ \mathbb{E}[|X_n-\mu|^p] \le \left(\frac{p}{2 C n}\right)^{p/2}.$$

Por lo tanto, para cualquier "suficientemente buena" de la analítica de la función $f$ (ver más adelante), podemos obligado el error de $\mathcal{E}_m$ en la $m$plazo de la serie de Taylor de la aproximación con el triángulo de la desigualdad

$$ \mathcal{E}_m:=\left|\mathbb{E}[f(X_n)] - \sum_{p=0}^m \frac{f^{(p)}(\mu)}{p!} \mathbb{E}(X_n-\mu)^p\right|\le \tfrac{1}{(2 C n)^{(m+1)/2}} \sum_{p=m+1}^\infty |f^{(p)}(\mu)| \frac{p^{p/2}}{p!}$$

cuando $n>C/2$. Desde Stirling aproximación da $p! \aprox p^{p-1/2}$, el error de la serie de Taylor truncada satisface

$$ \mathcal{E}_m = O(n^{-(m+1)/2}) \text{ como } n\to \infty\quad \text{cuando} \quad \sum_{p=0}^\infty p^{(1-p)/2 }|f^{(p)}(\mu)| < \infty \etiqueta{2}.$$

Por lo tanto, cuando $X_n$ está fuertemente concentrado y $f$ es lo suficientemente agradable, la serie de Taylor aproximación es realmente preciso. La desigualdad que aparecen en (2) implica que $f^{(p)}(\mu)/p! = O(p^{-p/2})$, de modo que, en particular, de nuestra condición requiere que $f$ es todo. Esto tiene sentido debido a que (1) no impone ningún tipo de acotamiento supuestos en $X_n$.

Vamos a ver lo que puede salir mal cuando $f$ es una singularidad (siguiente whuber del comentario). Supongamos que elegimos $f(x)=1/x$. Si tomamos $X_n$ de $\mathrm{Normal}(1,1/n)$ distribución truncada de entre cero y dos, luego $X_n$ es lo suficientemente concentrada, pero $\mathbb{E}[f(X_n)] = \infty$ para todo $n$. En otras palabras, tenemos una muy concentrado, delimitada variable aleatoria, y aún así la serie de Taylor método se produce cuando la función sólo tiene una singularidad.

Un par de palabras en rigor. Me parece más bonito para presentar la condición que aparece en (2) como la derivada en lugar de un deus ex machina que se requiere en un riguroso teorema y la prueba de formato. Con el fin de hacer que el argumento completamente rigurosa, en primer lugar observamos que el lado derecho de (2) implica que

$$\mathbb{E}[|f(X_n)|] \le \sum_{i=0}^\infty \frac{|f^{(p)}(\mu)|}{p!} \mathbb{E}[|X_n-\mu|^p]< \infty$$

por la tasa de crecimiento de subgaussian momentos de arriba. Por lo tanto, del teorema de Fubini proporciona

$$ \mathbb{E}[f(X_n)] = \sum_{i=0}^\infty \frac{f^{(p)}(\mu)}{p!} \mathbb{E}[(X_n-\mu)^p]$$

El resto de la prueba se procede como en el anterior.

10voto

Jeff Bauer Puntos 236

A pesar de que mi respuesta va a ningún lugar se acercan al nivel de sofisticación matemática de las otras respuestas, he decidido publicar esto, porque creo que tiene algo que aportar -a pesar de que el resultado será "negativo", como dicen.

En un tono ligero, yo diría que el OP es la "aversión al riesgo", (como la mayoría de las personas, así como la ciencia misma), porque el OP requiere de una suficiente condición para el 2do orden expansión en series de Taylor aproximación a "aceptable". Pero no es una condición necesaria.

En primer lugar, una condición necesaria pero no suficiente pre-requisito para el valor esperado de que el Resto de orden menor que la varianza de la r.v., como el OP requiere, es que la serie converge en el primer lugar. Debemos asumir la convergencia? No.

La expresión general examinamos es

$$ E\Big[g(Y)\Big] = \int_{-\infty}^{\infty}f_Y(y)\Big[\sum_{i=0}^{\infty}g^{(i)}(\mu)\frac{(y-\mu)^i}{i!}\Grande]dy \qquad [1]$$

Como Loistl (1976) estados de referencia Gemignani del "Cálculo y Estadística" libro (1978, pág. 170), una condición para la convergencia de la suma es infinita (una aplicación de la prueba de razón de convergencia)

$$y-\mu < |y-\mu|<\lim_{i\rightarrow \infty}\left | \left(\frac {g^{(i)}(\mu)}{g^{(i+1)}(\mu)}(i+1)\right)\right| \qquad [2]$$

...donde $\mu$ es la media de las r.v. Aunque esto también es una condición suficiente (la proporción de la prueba no es concluyente si la relación se mantiene con la igualdad), la serie diverge si la desigualdad se cumple en la otra dirección.

Loistl examinado tres formas funcionales para $g()$, la exponencial, el poder, y el logaritmo (su papel en el campo de la Utilidad Esperada y la Cartera de Elección, por lo que puso a prueba el estándar de las formas funcionales utilizadas para representar una función de utilidad cóncava). Para estas formas funcionales, encontró que sólo por la exponencial de la forma funcional no hay restricciones en $y-\mu$ que se impuso. Por el contrario, para el poder, y para el logarítmica caso (donde ya tenemos $0 <y$), nos encontramos con que la validez de la desigualdad de dólares[2]$ es equivalente a $$y-\mu < \mu \Rightarrow 0 < y < 2\mu$$

Esto significa que si nuestra variable varía fuera de este rango, la expansión de Taylor, teniendo como centro de expansión de la variable significa que van a divergir.

Así: para algunas formas funcionales, el valor de una función en algún punto de su dominio es igual a su infinita expansión de Taylor, no importa lo lejos que este punto es el de la expansión del centro. Para otras formas funcionales (logaritmo incluido), el punto de interés debe estar un poco "cerrar" para el centro elegido de expansión. En el caso de que tenemos una r.v., esto se traduce en una restricción en el soporte teórico de la variable (o un examen de su estudio empírico de la gama).

Loitl, mediante ejemplos numéricos, mostró también que al aumentar el orden de la expansión antes de truncamiento podría empeorar la situación por la exactitud de la aproximación. Debemos señalar que, empíricamente, de series de tiempo de las variables observadas en el sector financiero hacer exhiben variabilidad mayor que la requerida por la desigualdad. Así Loitl pasó a defender el hecho de que la serie de Taylor aproximación a la metodología debe ser desechado totalmente, con respecto a la Cartera de Teoría de la Elección.

El rebote llegó a 18 años después de Hlawitschka (1994). La información valiosa y el resultado fue, y cito

...a pesar de una serie en última instancia, puede convergen, poco se puede decir acerca de cualquier de sus parcial de la serie, la convergencia de una serie no implica que los términos de inmediato disminución en el tamaño o que de cualquier término en particular es lo suficientemente pequeño como para ser ignorado. De hecho, es posible, como se ha demostrado aquí, que un la serie puede parecer que divergen en última instancia, antes de la convergencia en el límite. La calidad de momento aproximaciones a la utilidad esperada que están basadas en el primer par de términos de una serie de Taylor, por lo tanto, no puede ser determinado por las propiedades de convergencia de la serie infinita. Esta es una cuestión empírica, y empíricamente, dos-momento de aproximaciones a la utilidad de las funciones estudiadas aquí realizar bien la tarea de selección de cartera. Hlawitschka (1994)

Por ejemplo, Hlawitschka mostró que el 2do orden aproximación fue "exitoso" si la serie de Taylor convergente o no, pero él también se verificó Lotl del resultado, que al aumentar el orden de la aproximación puede hacer que sea peor. Pero hay un calificador de este éxito: En la Cartera de Elección, la Utilidad Esperada se utiliza para el rango de valores mobiliarios y otros productos financieros. Es un ordinal medida que no se cardenal. Entonces, ¿qué Hlawitschka encontrado es que la 2ª orden de aproximación conserva la clasificación de los diferentes valores, en comparación con la clasificación derivada del valor exacto de $E(g(Y)$, y no que siempre dieron resultados cuantitativos que donde lo suficientemente cerca de este valor exacto (ver su cuadro A1 p. 718).

Entonces, ¿dónde nos deja? En el limbo, diría yo. Parece que tanto en la teoría y en el empirismo, la aceptabilidad de la 2ª orden Taylor aproximación depende, fundamentalmente, en muchos y diferentes aspectos del fenómeno específico bajo estudio y de la metodología científica empleada -que depende de las suposiciones teóricas, en las formas funcionales utilizadas, en la variabilidad observada de la serie...

Pero vamos a terminar esto de manera positiva: hoy en día, la energía de la computadora sustituye a un montón de cosas. Así, se podría simular y probar la validez de la 2ª orden de aproximación, para una amplia gama de valores de la variable barato, si trabajamos en un teórico o empírico en el problema.

8voto

user8076 Puntos 16

No se trata de una respuesta, sino un ejemplo para mostrar que las cosas no son tan bonitas, y que la hipótesis extra son necesarios para hacer este resultado verdadero.

Definir $X_n$ como una mezcla entre un uniforme de $U\left( \left[ -{1\over n} ; {1\over n} \right] \right)$ y $\mathcal N({n \más de n-1}, {1\over n})$, el uniforme del componente seleccionado con probabilidad $1\over$ n, y la normal con una probabilidad de $1{1\over n} = {n-1 \sobre n}$. Usted tiene $E(X_n) = 1$ y su varianza converge a $0$ cuando $$ n tiende a infinito, como $$E\left(X_n^2\right) = {1\over 3 n^2} \times {1\over n} + \left(\left({n \más de n-1}\right)^2+{1\over n}\right)\times{n-1 \sobre n},$$ si no estoy equivocado.

Ahora definir $f(x) = 1/x$ (e $f(0) = 0$ o lo que sea). Las variables aleatorias $f(X_n)$ están bien definidos, pero que no tiene un valor esperado, como $$ \int_{-{1\over n}}^{1\over n} {1\over x} \mathrm dx$$ no está definido, no importa cómo es grande $n$ es.

Mi conclusión es que claramente necesitan de hipótesis sobre el comportamiento global de $f$ o – más probablemente, más elegantemente en la velocidad a la que la densidad de $X_n$ decae cuando estás lejos de el valor esperado. Estoy seguro de que esta hipótesis puede ser encontrado en la literatura clásica (e incluso en los libros de texto), por desgracia, mi entrenamiento no estaba en las estadísticas y todavía lucho con la literatura de mí... de todos modos espero que les ayudó.

PS. No es este ejemplo de un contra-ejemplo a Nick respuesta? Que hay de malo entonces?

4voto

patfla Puntos 1

Esto no es una respuesta completa, sólo una forma diferente de llegar al segundo orden de aproximación.

Creo que la mejor manera de ir es el uso de Cauchy del valor medio teorema, en lugar de trabajar con el resto de los términos de un desarrollo en serie de Taylor. Si la aplicamos una vez que hemos $$f(X)=f(\mu)+f'(\xi_1)(X-\mu)$$

para algunos $X\leq\xi_1 \leq \mu$ cuando $X \leq \mu$ o $X\geq\xi_1 \geq \mu$ cuando $X \geq \mu$. Aplicamos el valor medio teorema de nuevo a $ f'(\xi_1)$ y tenemos

$$ f'(\xi_1)= f'(\mu) + f"(\xi_2)( \xi_1-\mu)$$

para algunos $X\leq\xi_1\leq\xi_2\leq\mu$ cuando $X\leq\mu$ o $X\geq\xi_1\geq \xi_2 \geq\mu$ cuando $X\geq\mu$. poner esto en la primera fomula da

$$f(X)=f(\mu)+ f'(\mu) (X-\mu) + f"(\xi_2)( \xi_1-\mu) (X-\mu)$$

Tenga en cuenta que este resultado sólo se requiere que $f$ es continua y dos veces diferenciable entre $X$ y $\mu$. Sin embargo, esto se aplica sólo durante un fijo de $X$, y el cambio de $X$ significará un cambio correspondiente en $\xi_i$. El segundo fin de delta método puede ser visto como hacer el global de la suposición de que $\xi_1-\mu=\frac{1}{2}(X-\mu)$ y $\xi_2=\mu$ en toda la gama del apoyo de $X$, o al menos más de la región de la alta probabilidad de masas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X