Supongamos que yo sé que, para dos variables aleatorias $X,Y$, tenemos $$Cov(X,Y)\neq 0.$$ ¿Qué pasa si tomamos una transformación monótona de $X$; la desigualdad persisten? Es decir, decir $f(.)$ es estrictamente creciente (no necesariamente lineal) de la función, entonces se sigue que la $$Cov(f(X),Y)\neq 0?$$ Desde la covarianza muestra las relaciones lineales, esto sería sólo seguir si $f$ fueron lineales, derecho? En ese caso, bajo que supuestos sobre la relación de $X,Y$ podemos decir que se sigue para las transformaciones no lineales $f$? (Por si ayuda, actualmente estoy mirando en el caso de que $f$ es la cdf de la normal estándar $\Phi$.)
Respuestas
¿Demasiados anuncios?(He editado la pregunta cambiando $f$ $g$en el fin de mantener el símbolo $f$ para las funciones de densidad de probabilidad). En primer lugar, en efecto, cuando la transformación es lineal(afín en realidad), la covarianza que implican la transformación continuará a ser distinto de cero. Para los no-lineal transformaciones usted no puede obtener condiciones muy específicas. Mi planteamiento es el siguiente:
Por compacidad, establezca $Z=g\left(X\right)$. A continuación, se requieren las condiciones bajo las cuales $$\operatorname{Cov}(Z,Y)\neq 0? \;\Rightarrow\; E\left(ZY\right)\,-\,E\left(Z\right)E\left(Y\right)\, \neq0?\qquad [1]$$
El uso de las Integrales para expresar los valores esperados, se requieren (suponiendo cierta regularidad condiciones) $$\int_{D_Z} \int_{D_Y} zyf_{Z,Y}\left(z,y\right)\,dy\,dz \;-\;\left(\int_{D_Z}zf_{Z}\left(z\right)dz\right) \left(\int_{D_Y} yf_{Y}\left(y\right)\,dy\right)\neq0?$$
$$\Rightarrow \int_{D_Z} \int_{D_Y} zyf_{Z,Y}\left(z,y\right)\,dy\,dz \;-\;\int_{D_Z} \int_{D_Y} zyf_{Z}\left(z\right)f_{Y}\left(y\right)\,dy\,dz\neq0?$$
$$\Rightarrow \int_{D_Z} \int_{D_Y} zy\left[f_{Z,Y}\left(z,y\right) \;-\;f_{Z}\left(z\right)f_{Y}\left(y\right)\right]\,dy\,dz\neq0?\qquad[2]$$
donde el $f()$ funciones de las articulaciones o marginal funciones de densidad de probabilidad, y $D$ denota el apoyo. Ahora defina $\omega \equiv(z,y)$ y la nota que $zy\;$,$\,z\;$,$\;y\;$, todo puede ser derivada como transformaciones lineales de $\omega$, dicen $zy=\tau_0(\omega)\;$,$\,z=\tau_1(\omega)\;$,$\;y=\tau_2(\omega)\;$. Por ejemplo,$z=\omega[1\; 0]'$, el primer denota la transpuesta. También se definen $C\equiv D_Z\times D_Y$. Entonces podemos compactar aún más por la escritura $$\cdots\Rightarrow \int_C h\left[\omega,\tau_0(\omega),\tau_1(\omega),\tau_2(\omega)\right]d\omega\neq0?\qquad[3]$$
¿Por qué todo este problema? Porque ahora está claro que lo que están pidiendo los requisitos en virtud de la cual un doble de la integral definida de una función de la variable no es igual a cero cuando se integra sobre todo el dominio de la variable. Por el contrario, queremos excluir las condiciones en las que esta integral es igual a cero. Primero desde $\operatorname{Cov}(X,Y)\neq 0\;$, lo que implica que las variables aleatorias $X$ $Y$ no son independientes. Por lo tanto, tenemos $f_{Z,Y}\left(z,y\right) \;\neq\;f_X \left(x\right)f_Y \left(y\right)$ . Pero esto no garantiza que la integral doble va a ser distinto de cero. Puede que todavía sea igual a cero si el integrando en eq.[2] es una función impar w.r.t. al menos uno de $z$ o $y$, y si el dominio w.r.t a esta variable es simétrica alrededor del origen (en el que se celebrará si, por ejemplo, $D= \Bbb R$ - extendido). Supongamos que, efectivamente, $C=\Bbb R\times\Bbb R$ extendido. Por lo tanto, debemos garantizar que el integrando $zy\left[f_{Z,Y}\left(z,y\right) \;-\;f_{Z}\left(z\right)f_{Y}\left(y\right)\right]$ no es una función impar w.r.t. a $z$ o $y$ por separado. Ahora, si usted trabaja el integrando, sustituyendo $-z$ $z$ etc, usted será capaz de reducir la afección a la siguiente: "La no-lineal de la transformación no debe ser tal como para hacer tanto $f_{Z,Y}\left(z,y\right) \;$ e $f_{Z}\left(z\right)$ o incluso funciones de $z$." Para $Y$ esto podría ser declarado como "Si el pdf de $Y$ es una función par, entonces la no-lineal de la transformación no debe ser tal como para hacer que $f_{Z,Y}\left(z,y\right) \;$ incluso una función de $y$.". Obviamente esta es la distribución específica (o, al menos, la distribución de la familia específica) y usted no puede ir más específico que eso. Si se ve muy general, imaginar una verdadera selva. Luego de la independencia es un recto camino claro a través de esta selva, y la dependencia lineal es una elíptica camino claro aproxima asintóticamente el recto camino de la independencia. El resto de la selva es no-lineal de la dependencia. $$ \text{}$$ Último momento: Una menos "matemáticos" y más "estadística" estado (aunque no necesariamente la más útil) sería "La no-lineal de la transformación debe ser tal como para no representar las variables $Z$ $Y$ sub-independiente". En pocas palabras, sub-independiente de las variables aleatorias son dependientes, pero no: su dependencia es "perfectamente no-lineal".
Suponga que $\mathrm{Cov}(X,Y)\ne0$ y considerar algunos creciente en función $g$ (se dice que en el caso de interés es al $g=\Phi$ el estándar normal de la CDF, que es cada vez mayor). La cuestión es encontrar algunas condiciones en $(X,Y)$ lo que implica que $\mathrm{Cov}(g(X),Y)\ne0$, presumiblemente para cada una de dichas $g$.
Aquí es una condición suficiente: uno sabe que $E[Y\mid X]=h(X)$ para algunos la función$h$, dependiendo únicamente de la distribución conjunta de $(X,Y)$. Entonces:
Si $h$ está aumentando o si $h$ es decreciente, a continuación,$\mathrm{Cov}(g(X),Y)\ne0$.
Para demostrar esto, supongamos, sin pérdida de generalidad que $h$ es creciente, tenga en cuenta que$\mathrm{Cov}(g(X),Y)$$\mathrm{Cov}(g(X),h(X))=E[g(X)h(X)]-E[g(X)]E[h(X)]$, y que para funciones no decrecientes $g$ y $h$, $E[g(X)h(X)]\geqslant E[g(X)]E[h(X)]$ con igualdad si y sólo si $g$ o $h$ es casi seguramente constante en $D$ tal que $P[X\in D]=1$. Aquí $g$ $h$ están aumentando en todas partes por lo tanto $E[g(X)h(X)]\gt E[g(X)]E[h(X)]$, excepto si $X$ es casi seguramente constante, pero, a continuación, $\mathrm{Cov}(X,Y)=0$ por lo tanto esto no suceda, y que la demanda está probado.
Por supuesto, el resultado parcial de arriba es sólo útil cuando uno puede calcular el $E[Y\mid X]=h(X)$ fácilmente. Aquí hay dos observaciones en esta dirección. En primer lugar, al $(X,Y)$ tiene una densidad, $$ h(x)=f_X(x)^{-1}\int_{-\infty}^{+\infty}yf_{(X,Y)}(x,y)\mathrm dy, $$ por lo tanto, uno debe ser capaz de verificar la monotonía de $h$ en algunas situaciones específicas. En segundo lugar, cuando $(X,Y)$ es normal, $h(x)=ax+b$ donde $a=\mathrm{Cov}(X,Y)\sqrt{\mathrm{var}(Y)/\mathrm{var}(X)}$ por lo tanto $h$ es creciente si y sólo si $\mathrm{Cov}(X,Y)\gt0$.