Dados los valores de d, p y $\sigma$ ¿es posible calcular el valor de $\mu$ ?
$$1-\frac{1}{2\pi\sigma^2}\int_{-\infty}^{\infty}\int_{y-d}^{y+d}\exp\big(-{x^2}/{2\sigma^2}\big) \exp\big(-{(y-\mu)^2}/{2\sigma^2}\big) \,\mathrm{d}x\,\mathrm{d}y < p$$
Dados los valores de d, p y $\sigma$ ¿es posible calcular el valor de $\mu$ ?
$$1-\frac{1}{2\pi\sigma^2}\int_{-\infty}^{\infty}\int_{y-d}^{y+d}\exp\big(-{x^2}/{2\sigma^2}\big) \exp\big(-{(y-\mu)^2}/{2\sigma^2}\big) \,\mathrm{d}x\,\mathrm{d}y < p$$
Dejemos que $I$ como en mi primera respuesta, denota la integral iterada (incluyendo el factor $\frac{1}{{2\pi \sigma ^2 }}$ ). Utilizando argumentos probabilísticos, obtuve $$ I = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg), $$ donde $\Phi$ es la función de distribución del ${\rm N}(0,1)$ distribución. Por otro lado, utilizando Mathematica, Sasha obtuvo $$ I = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) + {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg)\bigg). $$ Aquí ${\rm erf}$ es la función de error, definida por $$ {\rm erf}(x) = \frac{2}{{\sqrt \pi }}\int_0^x {e^{ - t^2 } \,dt} , \;\; x \in \mathbb{R}. $$ (Tenga en cuenta que ${\rm erf}(-x)=-{\rm erf}(x)$ .) Así pues, demostremos que efectivamente $$ \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) + {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg)\bigg). $$ A partir de la relación estándar $$ \Phi (x) = \frac{1}{2}\bigg[1 + {\rm erf}\bigg(\frac{x}{{\sqrt 2 }}\bigg)\bigg], $$ obtenemos $$ \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg)\bigg), $$ y, por tanto, la igualdad deseada se deduce de $$ {\rm erf}\bigg(\frac{{d - \mu }}{{2\sigma }}\bigg) = - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg). $$ Ahora, como en mi primera respuesta, define una función $f$ por $$ f(\mu):=\Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) = \frac{1}{2}\bigg({\rm erf}\bigg(\frac{{\mu + d}}{{2\sigma }}\bigg) - {\rm erf}\bigg(\frac{{\mu - d}}{{2\sigma }}\bigg)\bigg). $$ Recordemos que $f$ está disminuyendo en $\mu \in [0,\infty)$ con $f(\mu) \to 0$ como $\mu \to \infty$ . Así que si $f(0) > 1-p$ existe una solución $\mu > 0$ a $f(\mu)=1-p$ . Se puede encontrar una aproximación muy precisa a $\mu$ utilizando, por ejemplo, Wolfram Alpha (basado en la representación mediante la función de error).
Su integral doble puede ser evaluada en forma cerrada. Esto se hace evaluando $x$ integral primero, diferenciando con respecto a $d$ y recordando que para $d=0$ la integral desaparece. Entonces, llevando a cabo $y$ integración, y luego la integración con respecto a $d$ de cero a $d$ . Usando Mathematica:
In[19]:= 1 -
Integrate[
Integrate[
D[1/(2 Pi si^2)
Integrate[
Exp[-x^2/(2 si^2)] Exp[-(y - mu)^2/(2 si^2)], {x, y - dd,
y + dd}], dd] // FullSimplify, {y, -Infinity, Infinity},
Assumptions -> si > 0], {dd, 0, d}]
Out[19]= 1 + 1/2 (-Erf[(d - mu)/(2 si)] - Erf[(d + mu)/(2 si)])
Por lo tanto, su problema se convierte en $$1-\frac{1}{2} \left( \text{erf}\left( \frac{\mu+d}{2\sigma} \right) + \text{erf}\left( \frac{d-\mu}{2\sigma} \right) \right) < p$$ .
De esta desigualdad se puede deducir la desigualdad implícita para $\mu$ . He aquí un ejemplo:
Se puede demostrar fácilmente (utilizando la ley de la probabilidad total)* que $$ \frac{1}{{2\pi \sigma ^2 }}\int_{ - \infty }^\infty {\int_{ y-d }^{y+d} {\exp \bigg( - \frac{{x^2 }}{{2\sigma ^2 }}\bigg)\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg) {\rm d}x} \,{\rm d}y} = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg), $$ donde $\Phi$ es la función de distribución del ${\rm N}(0,1)$ distribución. Observando que el lado derecho se maximiza cuando $\mu = 0$ (de hecho, considere la integral del ${\rm N}(0,1)$ pdf sobre el intervalo de longitud fija $[\frac{{\mu - d}}{{\sqrt {2\sigma ^2 } }},\frac{{\mu + d}}{{\sqrt {2\sigma ^2 } }}]$ ), se deduce que una condición necesaria para que se cumpla su desigualdad es $$ \Phi \bigg(\frac{{d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{-d}}{{\sqrt {2\sigma^ 2} }}\bigg) > 1 - p. $$ Por otro lado, si se cumple esta condición, entonces su desigualdad se mantiene con $\mu=0$ .
Para resumir: La desigualdad se mantiene para algunos $\mu \in \mathbb{R}$ si y sólo si se cumple para $\mu=0$ la desigualdad para $\mu = 0$ equivale a $$ \Phi \bigg(\frac{{d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{-d}}{{\sqrt {2\sigma^ 2} }}\bigg) > 1 - p. $$
EDITAR (en vista de su comentario debajo de la respuesta de Sasha): Supongamos que se cumple la condición necesaria anterior. La función $f$ definido por $$ f(\mu ) = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg) $$ está disminuyendo en $\mu \in [0,\infty)$ con $f(\mu) \to 0$ como $\mu \to \infty$ . Según nuestra suposición, $f(0) > 1-p$ . Así que si está interesado en un $\mu > 0$ tal que $f(\mu) \approx 1-p$ , necesita encontrar $\mu_1,\mu_2 > 0$ tal que $f(\mu_1) > 1- p$ y $f(\mu_2) < 1-p$ y $f(\mu_1) - f(\mu_2) \approx 0$ . Entonces, para cualquier $\mu \in (\mu_1,\mu_2)$ , $f(\mu) \approx 1-p$ .
* EDITAR : Derivación de la primera ecuación anterior. Denotemos el lado izquierdo de esa ecuación por $I$ . Primero escriba $I$ como $$ I = \int_{ - \infty }^\infty {\bigg[\int_{y - d}^{y + d} {\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{x^2 }}{{2\sigma ^2 }}\bigg){\rm d}x} \bigg]\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg){\rm d}y} . $$ Entonces $$ I = \int_{ - \infty }^\infty {{\rm P}( - d \le X - y \le d)\frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg){\rm d}y} , $$ donde $X$ es un ${\rm N}(0,\sigma^2)$ variable aleatoria. Si $Y$ es un ${\rm N}(\mu,\sigma^2)$ variable aleatoria independiente de $X$ Entonces, por la ley de la probabilidad total, $$ {\rm P}( - d \le X - Y \le d) = \int_{ - \infty }^\infty {{\rm P}( - d \le X - Y \le d|Y = y)f_Y (y)\,{\rm d}y} = I, $$ donde $f_Y$ es el pdf de $Y$ dado por $$ f_Y (y) = \frac{1}{{\sqrt {2\pi \sigma ^2 } }}\exp \bigg( - \frac{{(y - \mu )^2 }}{{2\sigma ^2 }}\bigg), $$ y donde para la última igualdad ( $\int_{ - \infty }^\infty \cdot =I$ ) también utilizamos la independencia de $X$ y $Y$ . Ahora, $X-Y \sim {\rm N}(-\mu,2\sigma^2)$ Por lo tanto $$ \frac{{(X - Y) - ( - \mu )}}{{\sqrt {2\sigma ^2 } }} \sim {\rm N}(0,1), $$ y, a su vez, $$ I = {\rm P}\bigg(\frac{{ - d - ( - \mu )}}{{\sqrt {2\sigma ^2 } }} \le Z \le \frac{{d - ( - \mu )}}{{\sqrt {2\sigma ^2 } }}\bigg) = {\rm P}\bigg(\frac{{\mu - d}}{{\sqrt {2\sigma ^2 } }} \le Z \le \frac{{\mu + d}}{{\sqrt {2\sigma ^2 } }}\bigg), $$ donde $Z \sim {\rm N}(0,1)$ . Así, finalmente, $$ I = \Phi \bigg(\frac{{\mu + d}}{{\sqrt {2\sigma^ 2} }}\bigg) - \Phi \bigg(\frac{{\mu - d}}{{\sqrt {2\sigma^ 2} }}\bigg). $$
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.