7 votos

Condicional Valor Esperado del Producto de lo Normal y Log-Normal de Distribución

Podría alguien por favor proporcione la respuesta y los pasos para resolver esta expresión?

\begin{eqnarray*} E\left[\left.\left(e^{X}Y+k\right)\right|\left.\left(e^{X}Y+k\right)>0\right]\right. \end{eqnarray*} $E$ es la expectativa de operador. \begin{eqnarray*} X\sim N\left(\mu_{X},\sigma_{X}^{2}\right);Y\sim N\left(\mu_{Y},\sigma_{Y}^{2}\right);X\;\text{and }Y\text{ are independent. Also, }k<0 \end{eqnarray*}

CLAVE ESLABÓN PERDIDO

La expresión anterior depende en demostrar la siguiente expresión general o, al menos, muestra que para el caso especial de lo Normal y Log-Normal de distribución.

$E[UV\mid UV>c] = E[UE[V\mid UV>c]]$

Aquí, $U,V$ son independientes de las variables aleatorias que podrían ser discretos o continuos y siga cualquier distribución de probabilidad. $E$ es la expectativa de operador. $c$ es una constante.

Por supuesto, para nuestra principal pregunta que sólo requieren el caso de que uno de ellos se distribuye normalmente y la otra es la log-normal? Decir, $U$ es log-normal y $V$ es normal. Es el de arriba de identidad válido para este caso especial?

Esta se plantea como una cuestión separada debido a su importancia: la Prueba de la Simplificación de la esperanza Condicional de Producto de Variables Aleatorias

PASOS INTENTADO

0) CONJUNTO DE DENSIDAD CONDICIONAL

Estoy teniendo dificultades para llegar con el condicional conjunta de densidad para uso en el por encima de las expectativas. La función de densidad conjunta de sólo $X$ $Y$ es sencilla y sigue por el estándar de la función de densidad para el caso normal bivariante. ¿Cómo podemos incorporar el aspecto condicional en la articulación función de densidad?

1) NORMAL LOG-NORMAL DE LA MEZCLA DE PAPEL DE YANG

(Enlace: http://repec.org/esAUSM04/up.21034.1077779387.pdf)

Este trabajo tiene el primero de los cuatro momentos principales sin pruebas (Ecuación 5 en papel más arriba). Si alguien puede proporcionar a estas pruebas, que podrían arrojar más luz sobre el problema de arriba.

Las variables en el Yang de papel están correlacionadas, que es fácil de aplicar para arriba; pero también tienen cero significa, en el papel, que en nuestro caso no se aplica directamente, ya que tienen distinto de cero significa.

2)OTROS ENLACES RELACIONADOS

a) pregunta Interesante acerca de una expectativa que implican modificado ligeramente el formulario de la normal log-normal de la mezcla. A pesar de que este carece de la condicional aspecto, y por lo tanto es necesario hacer algunas modificaciones antes de que pueda ser utilizado para el problema anterior.

http://math.stackexchange.com/questions/1142841/covariance-in-normal-lognormal-nln-mixture

b) Otra pregunta sobre el normal log-normal de la mezcla, aunque esto carece de un debate más profundo.

http://math.stackexchange.com/questions/159818/combination-of-a-normal-r-v-with-a-log-normal-one

c) la Pregunta sobre la esperanza condicional de producto de variables aleatorias independientes. Sería bueno saber qué aspectos de este son aplicables en nuestro caso.

http://math.stackexchange.com/questions/544410/result-and-proof-on-the-conditional-expectation-of-the-product-of-two-random-var

d) Otras interesantes preguntas sobre la esperanza condicional de variables aleatorias independientes.

http://math.stackexchange.com/questions/380866/conditional-expectations-for-independent-random-variables?rq=1

http://math.stackexchange.com/questions/55524/rule-with-independent-random-variables-and-conditional-expectations?rq=1

3) EN SERIES DE TAYLOR DE APROXIMACIONES

Sería posible el uso de taylor serias aproximaciones aquí? Estoy algo confundido debido a la esperanza condicional y la normal, log normal de la mezcla? Los punteros en si esto es posible y cómo proceder en el futuro, o si esto no es aplicable en este caso sería genial.

4) UTILIZANDO EL ESTÁNDAR NORMAL (QUE PARECE UN CALLEJÓN SIN SALIDA)

Sé que si podemos expresar esta suma usando el estándar normal como la de abajo, no es una solución. Por favor, consejos sobre cómo hacer esto o otras alternativas para resolver el anterior sería útil también. Este parece ser un callejón sin salida, como confirmado por los expertos en este foro. Pero sigue manteniendo aquí si alguien descubre una manera de continuar con este enfoque.

\begin{eqnarray*} W=\left(e^{X}Y+k\right)<=>\mu+\sigma Z\text{ where, }Z\sim N\left(0,1\right) \end{eqnarray*}

\begin{eqnarray*} \left[W\sim N\left(\mu,\sigma^{2}\right)\Rightarrow W=\mu+\sigma Z\;;\; W>0\Rightarrow Z>-\mu/\sigma\right] \end{eqnarray*} A continuación, necesitamos determinar, $\mu\text{ and }\sigma$.

Tenemos para cada distribución normal estándar, $Z$, y por cada $u,$ $Pr\left[Z>\text-u\right]=Pr\left[Z<u\right]=\mathbf{\Phi}\left(u\right)$. Aquí, $\phi$ $\mathbf{\Phi}$ son el estándar PDF normal y CDF, respectivamente. \begin{eqnarray*} E\left[\left.Z\right|Z>-u\right] & = & \frac{1}{\mathbf{\Phi}\left(u\right)}\left[\int_{-u}^{\infty}t\phi\left(t\right)dt\right]\\ & = & \frac{1}{\mathbf{\Phi}\left(u\right)}\left[\left.-\phi\left(t\right)\right|_{-u}^{\infty}\right]=\frac{\phi\left(u\right)}{\mathbf{\Phi}\left(u\right)} \end{eqnarray*} Por lo tanto, tenemos, \begin{eqnarray*} E\left[\left.Y\right|Y>0\right] & = & \mu+\sigma E\left[\left.Z\right|Z>\left(-\frac{\mu}{\sigma}\right)\right]\\ & = & \mu+\frac{\sigma\phi\left(\mu/\sigma\right)}{\mathbf{\Phi}\left(\mu/\sigma\right)} \end{eqnarray*} Configuración, $\psi\left(u\right)=u+\phi\left(u\right)/\Phi\left(u\right)$, \begin{eqnarray*} E\left[\left.Y\right|Y>0\right]=\sigma\psi\left(\mu/\sigma\right) \end{eqnarray*}

1voto

Mark L. Stone Puntos 2037

¿Cuál es la intención de uso del resultado? Que lleva en qué tipo de respuesta es necesario, para incluir la cuestión de si un estocástico (Monte Carlo) método de simulación puede ser adecuado, E incluso la imagen más grande de la materia de este problema, es necesario resolver, y lo hizo alguien con este problema como una manera de resolver un nivel mayor problema, y no podría ser un mejor enfoque para el más alto nivel de problema que no requieren esto.

Aquí está una estocástico (Monte Carlo), la simulación de la solución en MATLAB.

a = 1; b = 2; c = 3; d = 4; k = -1; % Made up values for illustrative purpose
n = 1e8; % Number of replications
mux = 10; sigmax = 4; sigmay = 7; % Made up values for illustrative purposes
X = mux + sigmax * randn(n,1); Y = sigmay * randn(n,1); Y1 = a + b + c + d * Y;
success_index = exp(X).*Y1 > 0; % replications in which condition is true
num_success = sum(success_index);
Cond_Sample = exp(X(success_index)) .* Y1(success_index) + k;
disp([num_success mean(Cond_Sample) std(Cond_Sample)/sqrt(num_success)])
1.0e+09 *
0.058475265000000   1.502775087443930   0.057342191058931

1voto

Hunaphu Puntos 622

Comentarios:

  1. La articulación de densidad está dada por la multiplicación de las densidades, ya que son desplazados internos. Una variable es simplemente un paramater a la otra.
  2. $Ye^X$ no está normalmente distribuida de modo de enfoque (4) no funcionan.

  3. Las expresiones a continuación puede permitir que usted para encontrar alguna aproximación. Si no son relativamente fáciles de evaluar con un ordenador.

Deje $X\sim\mathcal{N}(\mu, \sigma^2)$, denotan $c = -k/y$, e $d(y)=\log(-k/y)$. Deje $Z=e^X$, luego $$E[YZ\mid B] = E[YE[Z\mid B]],$$ y, $$E[Z\mid Z>c] = e^{\mu+\sigma^2/2}\frac{P(X>d-\sigma^2)}{P(X>d)},$$ si $c>0$ $E[Z] = e^{\mu+\sigma^2/2}$ lo contrario. Así, desde la $c>0$ si $Y<0$, $$E[YZ\mid B] = \frac{1}{2}e^{\mu+\sigma^2/2}\bigg(E[Y\mathbb{1}(Y>0] + E\Big[Y\frac{P(X>d(Y)-\sigma^2)}{P(X>d(Y))}\mathbb{1}(Y<0)\Big]\bigg).$$

La primera parte es simplemente $$\int_0^\infty y f_Y(y)\,dy,$$ y la segunda $$\int_{-\infty}^0 y \frac{P(X>log(-\frac{k}{y})-\sigma^2)}{P(X>log(-\frac{k}{y}))}f_Y(y)\,dy.$$

0voto

0x0 Puntos 6

Esta solución es debido a las sugerencias y correcciones de @Hunaphu, @whuber, y otros. Podría alguien por favor, compruebe si todos los pasos de sentido?

RESPONDER A PASOS DE INICIO

El uso de algunos métodos de representación de los accesos directos,

Considerar, \begin{eqnarray*} E\left[\left.\left(e^{X}Y+k\right)\right|\left(e^{X}Y+k\right)>0\right] & = & E\left[k\left|\left(e^{X}Y+k\right)>0\right.\right]+E\left[\left(e^{X}Y\right)\left|\left(e^{X}Y+k\right)>0\right.\right] \end{eqnarray*} \begin{eqnarray*} & = & k+E\left[\left.\left(Ye^{X}\right)\right|\left.\left(Ye^{X}+k\right)>0\right]\right. \end{eqnarray*} \begin{eqnarray*} & = & k+\int\int ye^{x}f\left(\left.ye^{x}\right|\left\{ ye^{x}+k\right\} >0\right)dxdy \end{eqnarray*} Aquí, $f\left(w\right)$ es la función de densidad de probabilidad para $w$, Aquí, $f\left(w\right)$ es la función de densidad de probabilidad para $w$, \begin{eqnarray*} & = & k+\int\int ye^{x}\frac{f\left(ye^{x};\left\{ ye^{x}+k\right\} >0\right)}{f\left(\left\{ ye^{x}+k\right\} >0\right)}dxdy \end{eqnarray*} \begin{eqnarray*} \left[\text{We note that, }ye^{x}>-k>0\Rightarrow y>0\right] \end{eqnarray*} \begin{eqnarray*} & = & k+\int\int ye^{x}\frac{f\left(y\right)f\left(e^{x};\left\{ ye^{x}+k\right\} >0\right)}{f\left(\left\{ ye^{x}+k\right\} >0\right)}dxdy \end{eqnarray*} \begin{eqnarray*} & = & k+\int y\left[\int\frac{e^{x}f\left(e^{x};\left\{ e^{x}>-\frac{k}{y}\right\} \right)}{f\left(e^{x}>-\frac{k}{y}\right)}dx\right]f\left(y\right)dy \end{eqnarray*} \begin{eqnarray*} & = & k+\int y\left[\int e^{x}f\left(e^{x}\left|\left\{ e^{x}>-\frac{k}{y}\right\} \right.\right)dx\right]f\left(y\right)dy \end{eqnarray*} \begin{eqnarray*} & = & k+\int_{0}^{\left(y<-k\right)}y\left[\int e^{x}f\left(e^{x}\left|\left\{ e^{x}>1\right\} \right.\right)dx\right]f\left(y\right)dy+\int_{\left(y>-k\right)}^{\infty}y\left[\int e^{x}f\left(e^{x}\left|\left\{ e^{x}<1\right\} \right.\right)dx\right]f\left(y\right)dy \end{eqnarray*} \begin{eqnarray*} & = & k+\int_{0}^{\left(-k\right)}y\left[E\left(\left.W\right|W>c\right)\right]f\left(y\right)dy+\int_{\left(-k\right)}^{\infty}y\left[E\left(\left.W\right|W<c\right)\right]f\left(y\right)dy\quad;\;\text{here, }W=e^{X}\text{ and }c=1 \end{eqnarray*} Simplificando el interior de las expectativas, \begin{eqnarray*} E\left(\left.W\right|W>c\right)=\frac{1}{P\left(e^{X}>c\right)}\int_{c}^{\infty}w\frac{1}{w\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left[\frac{ln\left(w\right)-\mu_{X}}{\sigma_{X}}\right]^{2}}dw \end{eqnarray*} Poner $t=ln\left(w\right)$,, $dw=e^{t}dt$ \begin{eqnarray*} E\left(\left.W\right|W>c\right)=\frac{1}{P\left(X>ln\left(c\right)\right)}\int_{ln\left(c\right)}^{\infty}\frac{e^{t}}{\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{t-\mu_{X}}{\sigma_{X}}\right)^{2}}dt \end{eqnarray*} \begin{eqnarray*} t-\frac{1}{2}\left(\frac{t-\mu_{X}}{\sigma_{X}}\right)^{2}=-\frac{1}{2\sigma_{X}^{2}}\left(t-\left(\mu_{X}+\sigma_{X}^{2}\right)\right)^{2}+\mu_{X}+\frac{\sigma_{X}^{2}}{2} \end{eqnarray*} \begin{eqnarray*} E\left(\left.W\right|W>c\right)=\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(\mu_{X}+\sigma_{X}Z>ln\left(c\right)\right)}\int_{ln\left(c\right)}^{\infty}\frac{1}{\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left[\frac{t-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]^{2}}dt\quad;Z\sim N\left(0,1\right) \end{eqnarray*} Poner $s=\left[\frac{t-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]$ y $b=\left[\frac{ln\left(c\right)-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]$ tenemos, $ds=\frac{dt}{\sigma_{X}}$ \begin{eqnarray*} E\left(\left.W\right|W>c\right)=\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(Z>\frac{ln\left(c\right)-\mu_{X}}{\sigma_{X}}\right)}\int_{b}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}s^{2}}ds \end{eqnarray*} \begin{eqnarray*} =\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(Z<\frac{-ln\left(c\right)+\mu_{X}}{\sigma_{X}}\right)}\left[\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}s^{2}}ds-\int_{-\infty}^{b}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}s^{2}}ds\right] \end{eqnarray*} \begin{eqnarray*} =\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(Z<\frac{-ln\left(c\right)+\mu_{X}}{\sigma_{X}}\right)}\left[1-\Phi\left(b\right)\right]\quad;\Phi\text{ is the standard normal CDF} \end{eqnarray*} \begin{eqnarray*} =\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{\Phi\left(\frac{-ln\left(c\right)+\mu_{X}}{\sigma_{X}}\right)}\left[\Phi\left(-b\right)\right] \end{eqnarray*} Lo mismo para el otro caso, \begin{eqnarray*} E\left(\left.W\right|W<c\right)=\frac{1}{P\left(e^{X}<c\right)}\int_{0}^{c}w\frac{1}{w\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left[\frac{ln\left(w\right)-\mu_{X}}{\sigma_{X}}\right]^{2}}dw \end{eqnarray*} Poner $t=ln\left(w\right)$,, $dw=e^{t}dt$ \begin{eqnarray*} E\left(\left.W\right|W<c\right)=\frac{1}{P\left(X<ln\left(c\right)\right)}\int_{-\infty}^{ln\left(c\right)}\frac{e^{t}}{\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{t-\mu_{X}}{\sigma_{X}}\right)^{2}}dt \end{eqnarray*} \begin{eqnarray*} t-\frac{1}{2}\left(\frac{t-\mu_{X}}{\sigma_{X}}\right)^{2}=-\frac{1}{2\sigma_{X}^{2}}\left(t-\left(\mu_{X}+\sigma_{X}^{2}\right)\right)^{2}+\mu_{X}+\frac{\sigma_{X}^{2}}{2} \end{eqnarray*} \begin{eqnarray*} E\left(\left.W\right|W<c\right)=\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(\mu_{X}+\sigma_{X}Z<ln\left(c\right)\right)}\int_{-\infty}^{ln\left(c\right)}\frac{1}{\sigma_{X}\sqrt{2\pi}}e^{-\frac{1}{2}\left[\frac{t-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]^{2}}dt\quad;Z\sim N\left(0,1\right) \end{eqnarray*} Poner $s=\left[\frac{t-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]$ y $b=\left[\frac{ln\left(c\right)-\left(\mu_{X}+\sigma_{X}^{2}\right)}{\sigma_{X}}\right]$ tenemos, $ds=\frac{dt}{\sigma_{X}}$ \begin{eqnarray*} E\left(\left.W\right|W<c\right)=\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(Z<\frac{ln\left(c\right)-\mu_{X}}{\sigma_{X}}\right)}\int_{-\infty}^{b}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}s^{2}}ds \end{eqnarray*} \begin{eqnarray*} =\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{P\left(Z<\frac{ln\left(c\right)-\mu_{X}}{\sigma_{X}}\right)}\left[\Phi\left(b\right)\right]\quad;\Phi\text{ is the standard normal CDF} \end{eqnarray*} \begin{eqnarray*} =\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{\Phi\left(\frac{ln\left(c\right)-\mu_{X}}{\sigma_{X}}\right)}\left[\Phi\left(b\right)\right] \end{eqnarray*} Utilizando los resultados para el interior de las expectativas, \begin{eqnarray*} E\left[\left.\left(e^{X}Y+k\right)\right|\left(e^{X}Y+k\right)>0\right]=k+\int_{0}^{\left(-k\right)}y\left[\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{\Phi\left(\frac{-ln\left(c\right)+\mu_{X}}{\sigma_{X}}\right)}\left[\Phi\left(-b\right)\right]\right]f\left(y\right)dy+\int_{\left(-k\right)}^{\infty}y\left[\frac{e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}}{\Phi\left(\frac{ln\left(c\right)-\mu_{X}}{\sigma_{X}}\right)}\left[\Phi\left(b\right)\right]\right]f\left(y\right)dy \end{eqnarray*} \begin{eqnarray*} =k+e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}\left[\int_{0}^{\left(-k\right)}y\left\{ \frac{\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} f\left(y\right)dy+\int_{\left(-k\right)}^{\infty}y\left\{ \frac{\Phi\left(-\left[\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right]\right)}{\Phi\left(-\left[\frac{\mu_{X}}{\sigma_{X}}\right]\right)}\right\} f\left(y\right)dy\right] \end{eqnarray*} \begin{eqnarray*} =k+e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}\left[\int_{0}^{\left(-k\right)}y\left\{ \frac{\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} f\left(y\right)dy+\int_{\left(-k\right)}^{\infty}y\left\{ \frac{1-\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{1-\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} f\left(y\right)dy\right] \end{eqnarray*} \begin{eqnarray*} & = & k+e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}\left[\left\{ \frac{\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} \int_{-\frac{\mu_{Y}}{\sigma_{Y}}}^{-\left(\frac{k+\mu_{Y}}{\sigma_{Y}}\right)}\left(\mu_{Y}+\sigma_{Y}z\right)\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}z^{2}}dz\right.\\ & & +\left.\left\{ \frac{1-\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{1-\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} \int_{-\left(\frac{k+\mu_{Y}}{\sigma_{Y}}\right)}^{\infty}\left(\mu_{Y}+\sigma_{Y}z\right)\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}z^{2}}dz\right]\quad;Z\sim N\left(0,1\right) \end{eqnarray*} \begin{eqnarray*} & = & k+e^{\left(\mu_{X}+\frac{1}{2}\sigma_{X}^{2}\right)}\left[\left\{ \frac{\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} \left\{ \mu_{Y}\left[\Phi\left(-\left[\frac{k+\mu_{Y}}{\sigma_{Y}}\right]\right)-\Phi\left(-\frac{\mu_{Y}}{\sigma_{Y}}\right)\right]-\frac{\sigma_{Y}}{\sqrt{2\pi}}\left[e^{-\frac{1}{2}\left(\frac{k+\mu_{Y}}{\sigma_{Y}}\right)^{2}}-e^{-\frac{1}{2}\left(\frac{\mu_{Y}}{\sigma_{Y}}\right)^{2}}\right]\right\} \right.\\ & & +\left.\left\{ \frac{1-\Phi\left(\frac{\mu_{X}+\sigma_{X}^{2}}{\sigma_{X}}\right)}{1-\Phi\left(\frac{\mu_{X}}{\sigma_{X}}\right)}\right\} \left\{ \mu_{Y}\left[1-\Phi\left(-\left[\frac{k+\mu_{Y}}{\sigma_{Y}}\right]\right)\right]+\frac{\sigma_{Y}}{\sqrt{2\pi}}\left[e^{-\frac{1}{2}\left(\frac{k+\mu_{Y}}{\sigma_{Y}}\right)^{2}}\right]\right\} \right] \end{eqnarray*}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X