4 votos

$E(Y\mid X)$ $E(Y\mid X=x)$

Yo sé que a partir de la medida de la teoría de la probabilidad, $E(Y\mid X)$ $E(Y\mid X=x)$ son de naturaleza diferente: el primero es "condicional de una variable aleatoria" y el último es "condicional de un evento" (vamos a suponer que se trata de un evento nulo aquí). Pero aún no estoy seguro acerca de un par de cosas:

  1. Cuando las dos son equivalentes, es decir, una implica la otra?
  2. Si puedo especificar $E(Y\mid X)=X$$E(Y\mid X=x)=x$, son las dos ecuaciones equivalentes, es decir, una implica la otra?
  3. Cuando se habla, por ejemplo, los modelos Estadísticos como la regresión lineal, se escriben a menudo $E(Y\mid X)=X\beta$. En este caso, estamos utilizando "acondicionado en la variable aleatoria" o "acondicionado en el evento"? (Esta pregunta va a ser trivial si la respuesta a la pregunta 2 es sí).

1voto

Michael Hardy Puntos 128804

La expresión $X=x$ identifica a un determinado evento, es decir, un subconjunto de un espacio de probabilidad, y una de las condiciones en eventos, hablando de probabilidades condicionales dado un evento en particular, y por lo tanto de la probabilidad condicional distribuciones dado un evento, y por lo tanto de los valores esperados condicionales dado un evento.

El valor esperado condicional $\operatorname E(Y\mid X=x)$ es un condicional valor esperado dado un evento. Qué número es lo que depende de número de $x$ es. Por lo tanto es una función de $x.$ es $g(x).$ Tenemos $\operatorname E(Y\mid X=x) = g(x).$

A continuación, $\operatorname E(Y\mid X)$ es la variable aleatoria $g(X).$

En consecuencia, $\operatorname E(Y\mid X)=X$ es verdadera si y sólo si para todos los valores de $x,$ $\operatorname E(Y\mid X=x) = x$ es cierto.

En la regresión lineal, uno tiene típicamente $Y$ $n\times 1$ vector columna, $X$ $n\times p$ matriz, $\beta$ $p\times1$ vector columna, y $\operatorname E(Y\mid X) = X\beta.$ Ahora se nota que

  • A menudo se escribe como $\operatorname E(Y) = X\beta,$ ni $X$ ni $\beta$ es tratado como al azar. Lo que es aleatorio es el "errores", por lo que uno ha $Y=X\beta+\varepsilon,$ donde $\varepsilon$ es un random $n\times 1$ vector columna cuyo valor esperado es$0,$, es decir, un $n\times1$ columna de $0$s. En algunos de los problemas de las estadísticas de $X$ es fijo, por diseño, es decir, el investigador puede elegir el valor de la matriz $X.$ En algunos otros problemas, puede ser que el experimentador no puede elegir a $X$ pero cada vez que una nueva muestra de $n$ observaciones es elegido, $X$ sigue siendo el mismo y $\beta$ sigue siendo el mismo, tan sólo $\varepsilon,$ y, por tanto, $Y,$ cambios. En ese caso, la condición no es una variable aleatoria ni un evento, sino un parámetro que determina la distribución de probabilidad de $Y.$ En todos los problemas de regresión yo sepa, $X$ es una parte de los datos observables (como es $Y$) y $\beta$ es inobservable y se estima a partir de la observación de $X$ $Y.$ La estimación de $\widehat\beta$ a continuación, se convierte en una variable aleatoria que uno expresa como una función de la $X$ $Y.$

  • Pero también es a menudo el caso de que, siempre que una nueva muestra de $n$ observaciones se toman, tanto en $X$ $Y$ cambio. En ese caso, $X$ es una variable aleatoria y $\beta$ no lo es. Sin embargo, en la estimación de $\beta$ por mínimos cuadrados en tales problemas, $X$ es en efecto tratados como no al azar, y la justificación de que es que uno es acondicionado en $X.$

  • A veces uno se le asigna un antes de la distribución de probabilidad a $\beta,$ no porque $\beta$ es aleatorio en el sentido de ser algo que cambia cada vez que una nueva muestra de $n$ observaciones se toma, pero debido a que el valor de $\beta$ es incierto. En ese caso, en lugar de la utilización de los mínimos cuadrados o cualquiera de sus parientes, se multiplica la probabilidad función de (a pointwise función definida de $\beta$) por la probabilidad anterior medida en $\beta,$ y luego se normaliza, para obtener la parte posterior de la distribución de probabilidad de $\beta.$

1voto

Déjenos estado todo con precisión: Vamos a $(\Omega,\mathcal{F},P)$ ser un espacio de probabilidad. Deje $X:\Omega\rightarrow\mathbb{R}$ $Y:\Omega\rightarrow\mathbb{R}$ ser variables aleatorias tales que $E[|Y|]<\infty$. El símbolo $E[Y\mid X]$ está a sólo un breve formulario para $E[Y\mid\sigma(X)]$. Denotar $V=E[Y\mid\sigma(X)]$, que es un $\sigma$(X)-medible, integrable variable aleatoria tal que $\int_{A}V\,dP=\int_{A}Y\,dP$ cualquier $A\in\sigma(X)$. Por Radon-Nikodym Teorema de, $V$ existe y es única, una.e..

Desde $V$ $\sigma(X)$- mesurable, existe una función de Borel $f:\mathbb{R}\rightarrow\mathbb{R}$ tal que $V=f\circ X$. (Este el resultado es debido a Doob). Tenga en cuenta que dichas $f$ no es única. Por otra parte, deje $\mu_{X}$ ser la medida de probabilidad en $\mathbb{R}$ inducida por por $X$ (es decir,, $\mu_{X}(B)=P[X^{-1}(B)]$, $B\in\mathcal{B}(\mathbb{R})$). Si $f_{1},f_{2}:\mathbb{R}\rightarrow\mathbb{R}$ son funciones de Borel de tal manera que ambos $f_{1}\circ X$ $f_{2}\circ X$ son calificados como la esperanza condicional $E[Y\mid X]$, luego $f_{1}=f_{2}$ $\mu_{X}-a.e.$

Con respecto a la notación $E[Y\mid X=x]$, debe ser interpretada como $E[Y\mid X=x]=f(x)$ donde $f$ es un Borel función tal que $f\circ X$ actúa como la esperanza condicional $E[Y\mid X]$. Desde $f$ no es único en pointwise sentido, la discusión de la $E[Y\mid X=x_{0}]$ un particular $x_{0},$ en general, no tiene sentido.

Otra interpretación del símbolo $E[Y\mid X=x]$$E[Y\mid X=x]=\int_{[X=x]}Y\,dP/P([X=x])$. Sin embargo, esto sólo tiene sentido si $P([X=x])>0.$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X