10 votos

Es la media de la distribución normal truncada monótonas en $\mu$?

Me pregunto si la media de la distribución normal truncada es siempre creciente en $\mu$. El untruncated distribución de $x$$\mathcal{N}(\mu,\sigma^2)$. La media de la truncada de distribución está dada por $$E[x|a\le x\le b]=\mu+\frac{\phi(\alpha)-\phi(\beta)}{\Phi(\beta)-\Phi(\alpha)}\sigma,$$ donde $\alpha=(a-\mu)/\sigma, \beta=(b-\mu)/\sigma$. Tomando la derivada y simplificando un poco, podemos conseguir $$\frac{\partial E[x|a\le x\le b]}{\partial \mu}=1+\frac{[-\phi'(\alpha)+\phi'(\beta)][\Phi(\beta)-\Phi(\alpha)]-[\phi(\alpha)-\phi(\beta)]^2}{[\Phi(\beta)-\Phi(\alpha)]^2}.$$ Así, por ejemplo, si $\phi(\beta)>>\phi(\alpha)$ el último término en el numerador es negativo, pero, a continuación, $[-\phi'(\alpha)+\phi'(\beta)]$ debe ser positiva, ya que $\alpha$ debe estar en la cola izquierda, mientras que $\beta$ es cerca de la media.

No estoy seguro de si hay $a,b,\mu,\sigma$ de manera tal que este derivado puede llegar a ser negativa. En algunos cálculos numéricos no he podido encontrar un perfil de este tipo. Se puede encontrar un ejemplo, o puede que en lugar de demostrar que es siempre no negativo?

7voto

user87400 Puntos 120

Para "abordar todas las preocupaciones" podemos demostrar dos resultados: en primer lugar que la derivada de la truncada significa w.r.t. $\mu$ tiene un límite superior de la unidad. Segundo, que esta derivada es igual a la razón de la interrupción de la varianza sobre el untruncated la varianza (y por lo tanto, siempre es positivo). $$\text{Result A:} \frac{\partial E[x|a\le x\le b]}{\partial \mu} \le 1$$

Vamos a utilizar los resultados relacionados con el registro-cóncavo funciones (es decir, funciones cuyo logaritmo es una función cóncava). Por favor, consulte el enlace y las referencias allí contenidas. Obviamente, $\beta\,\gt\alpha$. Definir entonces la no-negativo bivariante función de $F(\beta,\alpha)\equiv {\Phi(\beta)-\Phi(\alpha)}$. Puede ser equivalentemente, escrito como $$F(\beta,\alpha)\,=\,\int_{\alpha}^{\beta} \phi(\tau)d\tau=\,\int_{-\infty}^{\infty} \phi(\tau)I(\alpha\le\tau\le \beta)d\tau$$ donde $I()$ es el indicador de la función. El indicador de la función de log-cóncava. El estándar pdf normal $\phi$ es de registro-cóncavo. El producto de dos de registro-cóncavo funciones de log-cóncava. Si queremos integrar un registro-cóncavo de la función a través de uno de sus argumentos, el resultado de la función es registro-cóncavo w.r.t. para el resto de las variables. Por lo $F(\beta,\alpha)$ es de registro-cóncava en $(\beta,\alpha)$ (esta es una reproducción de una prueba se encuentra en Pratt, J. W. (1981). Concavidad en el registro de la probabilidad. Revista de la Asociación Americana de Estadística, 76(373), 103-106.) Considere ahora la uni-variable de la función $$\ln H(\mu)=\ln F(\beta(\mu),\alpha(\mu))$$ Tenga en cuenta que tanto $\beta$ $\alpha$ son lineales las funciones de $\mu$. A continuación, $\ln H(\mu)$ es una función cóncava en $\mu$ (véase, por ejemplo, p. 86 eq. [3.15], Boyd & Vandenberghe (2004). Optimización convexa, señalando que la 2ª derivados de $\beta$ e de $\alpha$ w.r.t. $\mu$ son cero). Ahora

$$\frac{\partial \ln H(\mu)}{\partial \mu}\,=\,\frac{\phi(\beta)-\phi(\alpha)}{\Phi(\beta)-\Phi(\alpha)} \left(\frac{-1} {\sigma}\right)= \frac{\phi(\alpha)-\phi(\beta)}{\Phi(\beta)-\Phi(\alpha)} \left(\frac{1} {\sigma}\right)$$ Multiplicar todo por $\sigma^2:$ $$\sigma^2\frac{\partial \ln H(\mu)}{\partial \mu}\,= \frac{\phi(\alpha)-\phi(\beta)}{\Phi(\beta)-\Phi(\alpha)} \sigma$$

Entonces podemos escribir

$$E[x|a\le x\le b]=\mu+\sigma^2\frac{\partial \ln H(\mu)}{\partial \mu}\tag{1}$$

y por lo tanto

$$\frac{\partial E[x|a\le x\le b]}{\partial \mu}=1+\sigma^2\frac{\partial^2 \ln H(\mu)}{\partial \mu^2}\tag{2}$$

Desde $\ln H(\mu)$ es cóncava, su segunda derivada es no positivo. Así que hemos establecido: $$\frac{\partial E[x|a\le x\le b]}{\partial \mu}\le 1 \qquad \forall \;(\mu,\sigma,a,b, a \lt b) \tag{3}$$

Intuitivamente, la media de la distribución truncada nunca cambia tanto como la subyacente parámetro de localización (no esperes que la igualdad).

$$\text{Result B:} \frac{\partial E[x|a\le x\le b]}{\partial \mu}=\frac{\operatorname{Var}_{tr}(x)}{\sigma^2}\gt 0$$

Por compacidad vamos a utilizar el siguiente shorthands: ${\Phi(\beta)-\Phi(\alpha)}\equiv Z$, la cual es una función de $\mu$, $E[x|a\le x\le b]\equiv E_{tr}(x)$, $\frac{\partial \ln H(\mu)}{\partial \mu}\equiv h'$. Expresan la media truncada en forma integral tenemos $$E_{tr}(x)=\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx $$

$$\Rightarrow \frac{\partial E_{tr}(x)}{\partial \mu} = \int_a^bx\frac{1}{Z\sigma}\phi'\left(\frac{x-\mu}{\sigma}\right)\left(\frac{-1}{\sigma}\right)dx\;+\;\left[\phi(\beta)-\phi(\alpha)\right]\frac{1}{Z\sigma}\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx$$

Ahora $$\phi'\left(\frac{x-\mu}{\sigma}\right)=(-1)\left(\frac{x-\mu}{\sigma}\right)\phi\left(\frac{x-\mu}{\sigma}\right)$$ También, la última integral es igual a $E_{tr}(x)$, mientras que $\left[\phi(\beta)-\phi(\alpha)\right]\frac{1}{Z\sigma}=-h'$. Así tenemos

$$\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\int_a^bx\frac{1}{Z\sigma}\left(x-\mu\right)\phi\left(\frac{x-\mu}{\sigma}\right)dx\;-\;h'E_{tr}(x) \tag{4}$$

Indicar el restante integral de la $I$ y dividirlo en dos: $$\left(\frac{1}{\sigma^2}\right)I=\left(\frac{1}{\sigma^2}\right)\int_a^bx^2\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx\;-\;\left(\frac{\mu}{\sigma^2}\right)\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx$$ La primera integral es el segundo raw momento de la interrupción de la distribución, mientras que el segundo es $E_{tr}(x)$. Así $$\left(\frac{1}{\sigma^2}\right)I=\left(\frac{1}{\sigma^2}\right)E_{tr}(x^2)\;-\;\left(\frac{\mu}{\sigma^2}\right)E_{tr}(x)$$ La inserción en eq.(4) tenemos

$$\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)E_{tr}(x^2)\;-\;\left(\frac{\mu}{\sigma^2}\right)E_{tr}(x)\;-\;h'E_{tr}(x)$$

$$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\mu E_{tr}(x)\;-\;h'\sigma^2E_{tr}(x)\right]$$

$$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\left(\mu +h'\sigma^2\right)E_{tr}(x)\right]$$

De eq.$(1)$ tenemos $\mu +h'\sigma^2=E_{tr}(x)$. Sustituyendo obtenemos $$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\left(E_{tr}(x)\right)^2\right]=\frac{\operatorname{Var}_{tr}(x)}{\sigma^2}\gt 0$$

que es lo que queríamos demostrar.

5voto

theog Puntos 585

Esto no es una respuesta completa. Pensé que me gustaría probar y ver hasta dónde se podría llegar a una arbitraria función de distribución de probabilidad $f$.

Trunca a $[a,b]$, la media es $$m=\frac{\int_a^bxf(x)\,\mathrm dx}{\int_a^bf(x)\,\mathrm dx}=:\frac pq,$$ con $$\begin{align} p&=\int_a^bxf(x)\,\mathrm dx,\\ q&=\int_a^bf(x)\,\mathrm dx. \end{align}$$ Queremos traducir $f$ a la derecha por algunos $\mu$. Cambiando el origen a $\mu$, esto es equivalente a la traducción de los límites de $[a,b]$ a la izquierda, y solo tenemos que añadir $\mu$ a los nuevos media para el cambio en el origen. Así $$m(\mu) = \mu + \frac{\int_{a-\mu}^{b-\mu}xf(x)\,\mathrm dx}{\int_{a-\mu}^{b-\mu}f(x)\,\mathrm dx}=:\mu+\frac{p(\mu)}{q(\mu)},$$ y $$m'=1+\frac{p'q-pq'}{q^2}=\frac1q\Big(q+p'-\frac pqq'\Big),$$ donde el primer indica que la diferenciación por $\mu$. Por supuesto $$\begin{align} p'&=af(a)-bf(b),\\ q'&=f(a)-f(b), \end{align}$$ y $p/q=m$$\mu=0$, en cuyo caso $$\begin{align} m'|_{\mu=0}&=\frac1q\Big(q+af(a)-bf(b)-m\big(f(a)-f(b)\big)\Big)\\ &=\frac1q\Big(q-(m-a)f(a)-(b-m)f(b)\Big). \end{align}$$ (Podemos suponer $\mu=0$ sin pérdida de generalidad; sólo considerar un desplazado $f$ lugar.)

Este tiene una buena interpretación geométrica. En la siguiente figura, $q$ es el área debajo de la curva azul, mientras que $(m-a)f(a)+(b-m)f(b)$ es el área por debajo de la línea roja. Por lo $m'$ es positivo si y sólo si la zona azul es mayor que la de color rojo. No sé cómo demostrarlo, aunque. No es cierto para cualquier distribución de probabilidad, incluso suponiendo que es unimodal.

enter image description here

1voto

Fionnuala Puntos 67259

Si nos fijamos en $$\frac{\partial E[x|a\le x\le b]}{\partial \mu}=1+\frac{[-\phi'(\alpha)+\phi'(\beta)][\Phi(\beta)-\Phi(\alpha)]-[\phi(\alpha)-\phi(\beta)]^2}{[\Phi(\beta)-\Phi(\alpha)]^2}$$

a continuación, $$\frac{[-\phi'(\alpha)+\phi'(\beta)][\Phi(\beta)-\Phi(\alpha)]-[\phi(\alpha)-\phi(\beta)]^2}{[\Phi(\beta)-\Phi(\alpha)]^2} \leq \frac{[-\phi'(\alpha)+\phi'(\beta)][\Phi(\beta)-\Phi(\alpha)]}{[\Phi(\beta)-\Phi(\alpha)]^2} $$

Parece que basta para mostrar (o no show) que $$ \left|\frac{[-\phi'(\alpha)+\phi'(\beta)][\Phi(\beta)-\Phi(\alpha)]}{[\Phi(\beta)-\Phi(\alpha)]^2} \right| < 1$$

Ahora $(\Phi(\beta)-\Phi(\alpha))^{2}$ podría ser potencialmente un número muy pequeño. Esto se simplifica a $$ \left|\frac{[\phi'(\beta)-\phi'(\alpha)}{[\Phi(\beta)-\Phi(\alpha)]} \right| < \infty $$

Añadido. De acuerdo a esto, no hay máximos globales. Así que parece que no es la monotonía de $\mu$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X