Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js

17 votos

Varianza del seno y coseno de una variable aleatoria

Supongamos que X es una variable aleatoria extraída de una distribución normal con media E y varianza V. ¿Cómo podría calcular la varianza de sin(X) y cos(X)?

(Pensé que la pregunta era simple e intenté buscar, pero no encontré una buena respuesta.)

¿Qué pasa si no hay suposiciones sobre la distribución de X, y solo se proporcionan la media muestral y la varianza?

4 votos

Ambas variables están acotadas en [1,1], por lo que se puede mostrar que la varianza es 224=1.

0 votos

Ese es un punto interesante, podría ser útil así que lo tendré en cuenta. Sin embargo, me gustaría saber una fórmula/procedimiento exacto si es posible.

2 votos

Siempre puedes escribir las integrales relevantes y alimentarlas a un CAS. Mathematica me dijo que Var(sin(X))=12(1e2σ2cos(2μ)) y Var(cos(X))=eσ2cos2μ+12(1+e2σ2cos(2μ)).

20voto

Clement C. Puntos 16603

Lo que está abajo es para μ=0 (y la varianza renombrada σ2). Entonces E[sinX]=0, y tienes VarsinX=E[sin2X]=12(1E[cos2X]) y E[cos2X]=k=0(1)k22k(2k)!E[X2k]=k=0(1)k22k(2k)!σ2k(2k1)!!=k=0(1)k2kσ2kk!=e2σ2 y por lo tanto VarsinX=1e2σ22 Puedes tratar con la varianza de cosX de manera similar (pero ahora debes restar un E[cosX]2 distinto de cero), especialmente recordando que E[cos2X]=1E[sin2X].


Ahora, para una media no nula μ, tienes sin(Xμ)=sinXcosμcosXsinμ (y de manera similar para cos(Xμ)). Dado que Xμ es una Gaussiana de media cero con varianza σ2, ya hemos calculado la media y la varianza de sin(Xμ), cos(Xμ). Puedes usar esto con las identidades trigonométricas anteriores para encontrar las de cosX y sinX. (es un poco engorroso, pero no demasiado difícil.)


Sin saber nada sobre la distribución de X, no creo que haya mucho que puedas hacer.

0 votos

Podría haberme perdido algo, pero ¿podrías decirme por qué Varsin(X)=E[sin2X]? ¿También por qué el resultado no contiene nada relacionado con la media o la varianza de X?

0 votos

@HùngPham Oh, perdón, lo hice para media 0 y varianza 1. Permíteme corregir eso.

0 votos

Creo que deberías considerar E(sin2x)[E(sinx)]2

5voto

Minus One-Twelfth Puntos 454

Aquí hay una formulación general usando la ley del estadístico inconsciente que también se puede aplicar a otras funciones. Sin embargo, para los cálculos específicos con las funciones sin y cos aquí, ¡diría que la respuesta de Clement C. es mejor!

La media de h(X) (para alguna función h) se calcula mediante la integral E[h(X)]=h(x)fX(x)dx, donde fX es la función de densidad de probabilidad de X.

El segundo momento se encuentra de manera similar como E[(h(X))2]=(h(x)2)fX(x)dx.

Una vez que conozcas los primeros dos momentos aquí, puedes calcular la varianza utilizando Var(Z)=E[Z2](E[Z])2.

Sustituye h(x) con cosx para las expectativas correspondientes de cosX, y de manera similar con sinx.

Si no se conoce la distribución de X, generalmente no podemos calcular la media y la varianza exactas de h(X). Sin embargo, puedes consultar esto para algunas aproximaciones que podrían utilizarse. Algunas útiles para ti podrían ser que si X tiene una media μX y una varianza σ2X, entonces E[h(X)]h(μX)+h y \mathrm{Var}(h(X))\approx (h'(\mu_X)^2)\sigma^2_X + \dfrac{1}{2}(h''(\mu_X))^2 \sigma^4_X.

1voto

Acccumulation Puntos 13

\cos^2(x) = \frac{\cos(2x)+1}2, lo cual promedia a \frac12. Entonces, a medida que la varianza de X tiende a infinito, la varianza de \cos(X) tiende a \frac12, asumiendo que la distribución de X es "bien comportada". El límite inferior es 0 (la varianza se puede hacer arbitrariamente pequeña eligiendo la varianza de X suficientemente pequeña), y como dice @angryavian, el límite superior es 1. Dado que |\cos(x)| \leq 0, y la desigualdad es estricta para todo excepto un conjunto de medida cero, la varianza de \cos(X) es menor que la varianza de X.

1voto

Albert Puntos 134

Sé que esta no es la respuesta que estás buscando, pero puedes calcularla de manera empírica fácilmente a través de programación probabilística. Aquí tienes un ejemplo con Python y pymc3, tomando E=0.75 y V=0.25^2:

import pymc3 as pm
import numpy as np

with pm.Model() as model:
    x = pm.Normal('x', mu=0.75, sd=0.25)
    y = pm.Deterministic('y', np.sin(x))
    trace = pm.sample(10000)

pm.plot_posterior(trace)
pm.summary(trace)

Este fragmento producirá un gráfico mostrando la distribución de X y Y=\sin(X)

posterior

Y esta tabla, que muestra la media, desviación estándar, límites para el intervalo de confianza del 95%, y algunos diagnósticos para asegurarse de que los resultados son fiables (lo son):

       mean        sd  mc_error   hpd_2.5  hpd_97.5        n_eff      Rhat
x  0.747098  0.248358  0.003078  0.269450  1.240856  7756.202193  0.999998
y  0.658854  0.178794  0.002208  0.322414  0.980199  7731.781691  1.000049

1 votos

En realidad, pensé en algo similar a esto anteriormente. No seguí este enfoque por 2 razones: a) no sabía si este era un problema conocido y trivial que podría resolverse de manera determinista o no; b) quiero integrar este cálculo en un programa rápido, por lo que muestrear muchos # de puntos podría ralentizarlo, especialmente cuando repito la operación muchas veces. Sin embargo, tu respuesta sigue siendo muy útil. ¡Gracias!

0voto

Michael Hardy Puntos 128804

Aquí llamaré al valor esperado \mu y la varianza \sigma^2. \begin{align} \operatorname E(\sin X) = {} & \operatorname E\left( \frac{e^{iX} - e^{-iX}}{2i} \right) \\[8pt] = {} & \operatorname E \left( \frac{e^{i(\mu+\sigma Z)}-e^{-i(\mu+\sigma Z)}}{2i} \right) \\[8pt] = {} & \frac 1 {2i} \left( e^{i\mu} \operatorname E( e^{i\sigma Z}) - e^{-i\mu} \operatorname E(e^{-i\sigma Z}) \right). \end{align}

\text{Y } \operatorname E(e^{i\sigma Z}) = \int_{-\infty}^{+\infty} e^{i\sigma z} \frac 1 {\sqrt{2\pi}} e^{-z^2/2} \, dz. \tag 1

El exponente es \begin{align} -\tfrac 1 2 z^2 + i\sigma z = {} & -\tfrac 1 2 \left( z^2 - 2i \sigma z \right) \\[8pt] = {} & -\tfrac 1 2 \left( z^2 - 2i\sigma z - \sigma^2 \right) - \tfrac 1 2 \sigma^2 \\[8pt] = {} & -\tfrac 1 2 \left( z-i\sigma \right)^2 - \tfrac 1 2 \sigma^2 \end{align} La integral en la línea (1) anterior se convierte en e^{-i\sigma^2/2} \int_{-\infty}^{+\infty} \frac 1 {\sqrt{2\pi}} e^{-(z-i\sigma)^2/2} \, dz. La integral es igual a 1, entonces la pregunta es: ¿cómo sabemos eso?

La integral es igual a $\displaystyle \lim_{A\to\infty} \int_{-A}^{+A} \frac 1 {\sqrt{2\pi}} e^{-(z-i\sigma)^2/2} \, dz.

Entonces consideramos \left( \int_{+A}^{-A} +\int_{-A}^{-A-\sigma i} + \int_{-A-\sigma i}^{+A-\sigma i} + \int_{+A-\sigma i}^{+A} \right) \frac 1 {\sqrt{2\pi}} e^{-z^2/2} \, dz y observamos que

  • la primera integral anterior se acerca a 1 cuando A\to+\infty, y
  • las segundas y cuartas integrales son fácilmente vistas como que se acercan a 0, y
  • la tercera integral es aquella cuyo límite buscamos, y
  • la suma de las cuatro integrales es 0 porque estamos integrando a lo largo de una trayectoria que regresa a su punto de inicio y la función que se está integrando no tiene singularidades en el interior de la región rodeada.

Concluimos que \operatorname E(e^{i\sigma Z}) = e^{-i\sigma^2/2}. De manera similar, \operatorname E(e^{-i\sigma Z}) = e^{+i\sigma^2/2}.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X