Para "abordar todas las preocupaciones" podemos demostrar dos resultados: en primer lugar que la derivada
de la truncada significa w.r.t. $\mu$ tiene un límite superior de la unidad. Segundo, que esta derivada es igual a la razón de la interrupción de la varianza sobre el untruncated la varianza (y por lo tanto, siempre es positivo).
$$\text{Result A:} \frac{\partial E[x|a\le x\le b]}{\partial \mu} \le 1$$
Vamos a utilizar los resultados relacionados con el registro-cóncavo funciones (es decir, funciones cuyo logaritmo es una función cóncava). Por favor, consulte el enlace y las referencias allí contenidas.
Obviamente, $\beta\,\gt\alpha$. Definir entonces la no-negativo bivariante función de $F(\beta,\alpha)\equiv {\Phi(\beta)-\Phi(\alpha)}$. Puede ser equivalentemente, escrito como $$F(\beta,\alpha)\,=\,\int_{\alpha}^{\beta} \phi(\tau)d\tau=\,\int_{-\infty}^{\infty} \phi(\tau)I(\alpha\le\tau\le \beta)d\tau$$
donde $I()$ es el indicador de la función. El indicador de la función de log-cóncava. El estándar pdf normal $\phi$ es de registro-cóncavo. El producto de dos de registro-cóncavo funciones de log-cóncava. Si queremos integrar un registro-cóncavo de la función a través de uno de sus argumentos, el resultado de la función es registro-cóncavo w.r.t. para el resto de las variables. Por lo $F(\beta,\alpha)$ es de registro-cóncava en $(\beta,\alpha)$ (esta es una reproducción de una prueba se encuentra en Pratt, J. W. (1981). Concavidad en el registro de la probabilidad. Revista de la Asociación Americana de Estadística, 76(373), 103-106.) Considere ahora la uni-variable de la función
$$\ln H(\mu)=\ln F(\beta(\mu),\alpha(\mu))$$
Tenga en cuenta que tanto $\beta$ $\alpha$ son lineales las funciones de $\mu$. A continuación, $\ln H(\mu)$ es una función cóncava en $\mu$ (véase, por ejemplo, p. 86 eq. [3.15], Boyd & Vandenberghe (2004). Optimización convexa, señalando que la 2ª derivados de $\beta$ e de $\alpha$ w.r.t. $\mu$ son cero).
Ahora
$$\frac{\partial \ln H(\mu)}{\partial \mu}\,=\,\frac{\phi(\beta)-\phi(\alpha)}{\Phi(\beta)-\Phi(\alpha)} \left(\frac{-1} {\sigma}\right)= \frac{\phi(\alpha)-\phi(\beta)}{\Phi(\beta)-\Phi(\alpha)} \left(\frac{1} {\sigma}\right)$$
Multiplicar todo por $\sigma^2:$
$$\sigma^2\frac{\partial \ln H(\mu)}{\partial \mu}\,= \frac{\phi(\alpha)-\phi(\beta)}{\Phi(\beta)-\Phi(\alpha)} \sigma$$
Entonces podemos escribir
$$E[x|a\le x\le b]=\mu+\sigma^2\frac{\partial \ln H(\mu)}{\partial \mu}\tag{1}$$
y por lo tanto
$$\frac{\partial E[x|a\le x\le b]}{\partial \mu}=1+\sigma^2\frac{\partial^2 \ln H(\mu)}{\partial \mu^2}\tag{2}$$
Desde $\ln H(\mu)$ es cóncava, su segunda derivada es no positivo. Así que hemos establecido:
$$\frac{\partial E[x|a\le x\le b]}{\partial \mu}\le 1 \qquad \forall \;(\mu,\sigma,a,b, a \lt b) \tag{3}$$
Intuitivamente, la media de la distribución truncada nunca cambia tanto como la subyacente parámetro de localización (no esperes que la igualdad).
$$\text{Result B:} \frac{\partial E[x|a\le x\le b]}{\partial \mu}=\frac{\operatorname{Var}_{tr}(x)}{\sigma^2}\gt 0$$
Por compacidad vamos a utilizar el siguiente shorthands: ${\Phi(\beta)-\Phi(\alpha)}\equiv Z$, la cual es una función de $\mu$, $E[x|a\le x\le b]\equiv E_{tr}(x)$, $\frac{\partial \ln H(\mu)}{\partial \mu}\equiv h'$. Expresan la media truncada en forma integral tenemos
$$E_{tr}(x)=\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx $$
$$\Rightarrow \frac{\partial E_{tr}(x)}{\partial \mu} = \int_a^bx\frac{1}{Z\sigma}\phi'\left(\frac{x-\mu}{\sigma}\right)\left(\frac{-1}{\sigma}\right)dx\;+\;\left[\phi(\beta)-\phi(\alpha)\right]\frac{1}{Z\sigma}\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx$$
Ahora
$$\phi'\left(\frac{x-\mu}{\sigma}\right)=(-1)\left(\frac{x-\mu}{\sigma}\right)\phi\left(\frac{x-\mu}{\sigma}\right)$$
También, la última integral es igual a $E_{tr}(x)$, mientras que $\left[\phi(\beta)-\phi(\alpha)\right]\frac{1}{Z\sigma}=-h'$. Así tenemos
$$\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\int_a^bx\frac{1}{Z\sigma}\left(x-\mu\right)\phi\left(\frac{x-\mu}{\sigma}\right)dx\;-\;h'E_{tr}(x) \tag{4}$$
Indicar el restante integral de la $I$ y dividirlo en dos:
$$\left(\frac{1}{\sigma^2}\right)I=\left(\frac{1}{\sigma^2}\right)\int_a^bx^2\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx\;-\;\left(\frac{\mu}{\sigma^2}\right)\int_a^bx\frac{1}{Z\sigma}\phi\left(\frac{x-\mu}{\sigma}\right)dx$$
La primera integral es el segundo raw momento de la interrupción de la distribución, mientras que el segundo es $E_{tr}(x)$. Así
$$\left(\frac{1}{\sigma^2}\right)I=\left(\frac{1}{\sigma^2}\right)E_{tr}(x^2)\;-\;\left(\frac{\mu}{\sigma^2}\right)E_{tr}(x)$$
La inserción en eq.(4) tenemos
$$\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)E_{tr}(x^2)\;-\;\left(\frac{\mu}{\sigma^2}\right)E_{tr}(x)\;-\;h'E_{tr}(x)$$
$$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\mu E_{tr}(x)\;-\;h'\sigma^2E_{tr}(x)\right]$$
$$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\left(\mu +h'\sigma^2\right)E_{tr}(x)\right]$$
De eq.$(1)$ tenemos $\mu +h'\sigma^2=E_{tr}(x)$. Sustituyendo obtenemos
$$\Rightarrow\frac{\partial E_{tr}(x)}{\partial \mu} = \left(\frac{1}{\sigma^2}\right)\left[E_{tr}(x^2)\;-\;\left(E_{tr}(x)\right)^2\right]=\frac{\operatorname{Var}_{tr}(x)}{\sigma^2}\gt 0$$
que es lo que queríamos demostrar.