2 votos

encontrar la variable desconocida en la integral gaussiana

Dados los valores de d, p y $\sigma$ ¿es posible calcular el valor de $\mu$ ?

$$1-\frac{1}{2\pi\sigma^2}\int_{-\infty}^{\infty}\int_{y-d}^{y+d}\exp\big(-{x^2}/{2\sigma^2}\big) \exp\big(-{(y-\mu)^2}/{2\sigma^2}\big) \,\mathrm{d}x\,\mathrm{d}y < p$$

4voto

Mingo Puntos 126

Dejemos que $I$ como en mi primera respuesta, denota la integral iterada (incluyendo el factor $\frac{1}{{2\pi \sigma ^2 }}$ ). Utilizando argumentos probabilísticos, obtuve $$ I = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg), $$ donde $\Phi$ es la función de distribución del ${\rm N}(0,1)$ distribución. Por otro lado, utilizando Mathematica, Sasha obtuvo $$ I = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) + {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg)\bigg). $$ Aquí ${\rm erf}$ es la función de error, definida por $$ {\rm erf}(x) = \frac{2}{{\sqrt \pi }}\int_0^x {e^{ - t^2 } \,dt} , \;\; x \in \mathbb{R}. $$ (Tenga en cuenta que ${\rm erf}(-x)=-{\rm erf}(x)$ .) Así pues, demostremos que efectivamente $$ \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) + {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg)\bigg). $$ A partir de la relación estándar $$ \Phi (x) = \frac{1}{2}\bigg[1 + {\rm erf}\bigg(\frac{x}{{\sqrt 2 }}\bigg)\bigg], $$ obtenemos $$ \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg)\bigg), $$ y, por tanto, la igualdad deseada se deduce de $$ {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg) = - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg). $$ Ahora, como en mi primera respuesta, define una función $f$ por $$ f(\mu):=\Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg)\bigg). $$ Recordemos que $f$ está disminuyendo en $\mu \in [0,\infty)$ con $f(\mu) \to 0$ como $\mu \to \infty$ . Así que si $f(0) > 1-p$ existe una solución $\mu > 0$ a $f(\mu)=1-p$ . Se puede encontrar una aproximación muy precisa a $\mu$ utilizando, por ejemplo, Wolfram Alpha (basado en la representación mediante la función de error).

3voto

Robert Christie Puntos 7323

Su integral doble puede ser evaluada en forma cerrada. Esto se hace evaluando $x$ integral primero, diferenciando con respecto a $d$ y recordando que para $d=0$ la integral desaparece. Entonces, llevando a cabo $y$ integración, y luego la integración con respecto a $d$ de cero a $d$ . Usando Mathematica:

In[19]:= 1 - 
 Integrate[
  Integrate[
   D[1/(2 Pi si^2)
       Integrate[
       Exp[-x^2/(2 si^2)] Exp[-(y - mu)^2/(2 si^2)], {x, y - dd, 
        y + dd}], dd] // FullSimplify, {y, -Infinity, Infinity}, 
   Assumptions -> si > 0], {dd, 0, d}]

Out[19]= 1 + 1/2 (-Erf[(d - mu)/(2 si)] - Erf[(d + mu)/(2 si)])

Por lo tanto, su problema se convierte en $$1-\frac{1}{2} \left( \text{erf}\left( \frac{\mu+d}{2\sigma} \right) + \text{erf}\left( \frac{d-\mu}{2\sigma} \right) \right) < p$$ .

De esta desigualdad se puede deducir la desigualdad implícita para $\mu$ . He aquí un ejemplo:

enter image description here

2voto

Mingo Puntos 126

Se puede demostrar fácilmente (utilizando la ley de la probabilidad total)* que $$ \frac{1}{{2\pi \sigma ^2 }}\int_{ - \infty }^\infty {\int_{ y-d }^{y+d} {\exp \bigg( - \frac{{x^2 }}{{2\sigma ^2 }}\bigg)\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg) {\rm d}x} \,{\rm d}y} = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg), $$ donde $\Phi$ es la función de distribución del ${\rm N}(0,1)$ distribución. Observando que el lado derecho se maximiza cuando $\mu = 0$ (de hecho, considere la integral del ${\rm N}(0,1)$ pdf sobre el intervalo de longitud fija $[\frac{{\mu - d}}{{\sqrt {2\sigma ^2 } }},\frac{{\mu + d}}{{\sqrt {2\sigma ^2 } }}]$ ), se deduce que una condición necesaria para que se cumpla su desigualdad es $$ \Phi \bigg(\frac{{d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{-d}}{{\sqrt {2\sigma^ 2} }}\bigg) > 1 - p. $$ Por otro lado, si se cumple esta condición, entonces su desigualdad se mantiene con $\mu=0$ .

Para resumir: La desigualdad se mantiene para algunos $\mu \in \mathbb{R}$ si y sólo si se cumple para $\mu=0$ la desigualdad para $\mu = 0$ equivale a $$ \Phi \bigg(\frac{{d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{-d}}{{\sqrt {2\sigma^ 2} }}\bigg) > 1 - p. $$

EDITAR (en vista de su comentario debajo de la respuesta de Sasha): Supongamos que se cumple la condición necesaria anterior. La función $f$ definido por $$ f(\mu ) = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) $$ está disminuyendo en $\mu \in [0,\infty)$ con $f(\mu) \to 0$ como $\mu \to \infty$ . Según nuestra suposición, $f(0) > 1-p$ . Así que si está interesado en un $\mu > 0$ tal que $f(\mu) \approx 1-p$ , necesita encontrar $\mu_1,\mu_2 > 0$ tal que $f(\mu_1) > 1- p$ y $f(\mu_2) < 1-p$ y $f(\mu_1) - f(\mu_2) \approx 0$ . Entonces, para cualquier $\mu \in (\mu_1,\mu_2)$ , $f(\mu) \approx 1-p$ .

* EDITAR : Derivación de la primera ecuación anterior. Denotemos el lado izquierdo de esa ecuación por $I$ . Primero escriba $I$ como $$ I = \int_{ - \infty }^\infty {\bigg[\int_{y - d}^{y + d} {\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{x^2 }}{{2\sigma ^2 }}\bigg){\rm d}x} \bigg]\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg){\rm d}y} . $$ Entonces $$ I = \int_{ - \infty }^\infty {{\rm P}( - d \le X - y \le d)\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg){\rm d}y} , $$ donde $X$ es un ${\rm N}(0,\sigma^2)$ variable aleatoria. Si $Y$ es un ${\rm N}(\mu,\sigma^2)$ variable aleatoria independiente de $X$ Entonces, por la ley de la probabilidad total, $$ {\rm P}( - d \le X - Y \le d) = \int_{ - \infty }^\infty {{\rm P}( - d \le X - Y \le d|Y = y)f_Y (y)\,{\rm d}y} = I, $$ donde $f_Y$ es el pdf de $Y$ dado por $$ f_Y (y) = \frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg), $$ y donde para la última igualdad ( $\int_{ - \infty }^\infty \cdot =I$ ) también utilizamos la independencia de $X$ y $Y$ . Ahora, $X-Y \sim {\rm N}(-\mu,2\sigma^2)$ Por lo tanto $$ \frac{{(X - Y) - ( - \mu )}}{{\sqrt {2\sigma ^2 } }} \sim {\rm N}(0,1), $$ y, a su vez, $$ I = {\rm P}\bigg(\frac{{ - d - ( - \mu )}}{{\sqrt {2\sigma ^2 } }} \le Z \le \frac{{d - ( - \mu )}}{{\sqrt {2\sigma ^2 } }}\bigg) = {\rm P}\bigg(\frac{{\mu - d}}{{\sqrt {2\sigma ^2 } }} \le Z \le \frac{{\mu + d}}{{\sqrt {2\sigma ^2 } }}\bigg), $$ donde $Z \sim {\rm N}(0,1)$ . Así, finalmente, $$ I = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg). $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X