$\newcommand{\E}{\operatorname{E}}\newcommand{\var}{\operatorname{var}}$Si un número $c$ es utilizado como una predicción del valor de una aún no observados variable aleatoria $W$, entonces la media cuadrática del error de predicción $\operatorname{E}((W-c)^2)$ es menor si $c=\operatorname{E}(W)$ si $c$ es cualquier otro número. Esto puede ser visto de la siguiente manera: Vamos a $\mu= \operatorname{E}(W);$
\begin{align}
\operatorname{E}((W-c)^2) & = \operatorname{E}(((W-\mu) + (\mu-c))^2) \\[10pt]
& = \operatorname{E}((W-\mu)^2 + 2(W-\mu)(\mu-c) + (\mu-c)^2) \\[10pt]
& = \operatorname{E}((W-\mu)^2) + \operatorname{E}(2(W-\mu)(\mu-c)) + \operatorname{E}((\mu-c)^2) \\[10pt]
& = \operatorname{var}(W) + 2(\mu-c)\operatorname{E}(W-\mu) + (\mu-c)^2 \\
& \qquad\qquad\qquad \text{since %#%#% and %#%#% are constant, i.e. not random} \\[12pt]
& = \operatorname{var}(W) + 0 + (\mu-c)^2.
\end{align}
Esto depende de la $2(\mu-c)$ sólo a través de la pasada legislatura, y el último término es $(\mu-c)^2$ si $c$ y es positiva si $0$nada más.
Por lo tanto, lo que usted necesita es $c=\mu$ el valor esperado condicional de $c={}$ dado el caso de que $\operatorname{E}(Y\mid X=x),$ Hay varias maneras en que uno podría acercarse a la cuestión de la búsqueda de $Y$
Uno de ellos consiste en la articulación de la densidad de $X=x.$$\operatorname{E}(Y\mid X=x).$:
$$
f_{Y,X}(y,z) = \text{constante} \cdot e^{-(y^2+z^2)/2}.
$$
Estamos acondicionado en la suma de $Y$ Vistazo a la línea recta en la $Z$-plano donde su suma es $x=y+z.$. Su pendiente es $(y,z)$. Los conjuntos de nivel de la articulación de la densidad son los círculos $x$ y la densidad se hace más grande a medida que el círculo se hace más pequeño. La línea de $-1$ toca uno de los círculos en un solo punto y atraviesa cada uno de los círculos más grandes en dos puntos. El círculo que toca en un solo punto está en la línea $y^2+z^2=\text{radius}^2$, lo que satisface la línea de $y+z=\text{something}$ a un ángulo recto. Que un punto donde se toca es $z=y$ Que es el punto donde la articulación de la densidad alcanza su mayor valor en la línea $y+z=\text{something}$ Por la simetría de la articulación de la densidad, que es el punto en que la línea que representa el valor promedio de $(y,z)=(x/2,x/2).$ que $y+z=\text{something}.$ está en esa línea. En otras palabras, $(Y,Z)$ $(Y,Z)$
Otro enfoque consiste en adivinar basado en el portaron bien la naturaleza de la distribución de Gauss que $\operatorname{E}((Y,Z)\mid Y+Z=x) = (x/2,x/2).$ es algunas de línea recta en función de $\operatorname{E}(Y\mid X=x) = x/2.$ y, a continuación, averiguar en qué línea y, a continuación, encontrar un argumento para confirmar la conjetura. Una simple intuición debería sugerir $\operatorname{E}(Y\mid X=x)$, por lo que vamos a adivinar que $x$ y, a continuación, tratar de averiguar qué número $\operatorname{E}(Y\mid X=0) = 0,$ debe ser. Uno debe tener $\operatorname{E}(Y\mid X=x) = mx,$ $m$
Si el valor de $\operatorname{E}(Y\mid X) = mX,$ se observa, a continuación, $\operatorname{E}(Y-mX\mid X) = 0.$ es el valor de predicción de $X$, lo $mX$ es el residual -- la cantidad por la que el valor real difiere del valor predicho. El residual será independiente de la predicción sólo si la covarianza entre los residuales y la predicción es $Y$. Tenemos
$$
\operatorname{cov}(Y-mX, X) = \operatorname{cov}(Y-m(Y+Z),Y+Z) = 1-2m
$$
y esto es $Y-mX$ precisamente al $0$
Si podemos demostrar que $0$ es independiente de $m=\dfrac 1 2.$, luego tenemos a $Y-\dfrac 1 2 X$ también $X$, y, en consecuencia,
$$
\operatorname{E}(Y\mid X) = \frac 1 2 X.
$$
La covarianza entre el$\operatorname{E}\left( Y - \dfrac 1 2 X \mid X\right) = Y - \dfrac 1 2 X,$$\operatorname{E}\left(\dfrac 1 2 X \mid X\right) = \dfrac 1 2 X$$Y-\dfrac 1 2 X$. Cuando ambas variables son combinaciones lineales de Gaussianas independientes (en este caso $X$$0$), entonces eso es suficiente para inferir la independencia.
Tal vez esta es la mejor explicación que puedo dar sin más pensamiento o en la teoría de distribuciones normales multivariadas.
He aquí un punto de vista utilizando álgebra de matrices: Para un vector aleatorio $Y$
$$
\var(U) = \E\Big((U - \E U) (U - \E U)^T \Big) \in \mathbb R^{n\times n}.
$$
Feller llama a esto la varianza; muchos autores llaman la matriz de covarianza o simplemente la covarianza porque sus entradas son las covarianzas entre las componentes escalares de $Z$.
Para $U\in\mathbb R^{n\times 1}$ tenemos $U$ un vector aleatorio en $A\in \mathbb R^{k\times n}$ y
$$
\var(AU) = A \Big( \var(U) \Big)^T \in\mathbb R^{k\times k}. \tag 1
$$
Así
$$
\var\begin{bmatrix} Y \\ Z \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}
$$
\begin{align}
\var\begin{bmatrix} Y \\ X \end{bmatrix} & = \var\left( \begin{bmatrix} 1 & 0 \\ 1 & 1 \end{bmatrix}\begin{bmatrix} Y \\ Z \end{bmatrix} \right) \\[10]
y = \begin{bmatrix} 1 & 1 \\ 1 & 2 \end{bmatrix} \text{ por }(1).
\end{align}
\begin{align}
\var\begin{bmatrix} X \\ Y-\frac 1 2 X \end{bmatrix} = \begin{bmatrix} 0 & 1 \\ 1 & -1/2 \end{bmatrix}\begin{bmatrix} Y \\ X \end{bmatrix} = \begin{bmatrix} 2 & 0 \\ 0 & 1/2 \end{bmatrix} \text{ por } (1).
\end{align}
[ a continuación ]