4 votos

Que se derivan reglas de decisión para Gaussianas

$X=Y+Z$ donde $Y$ y $Z$ son Gaussianas independientes con cero medio y variaciones $\sigma_Y^2$ y $\sigma_Z^2$ son conocidos. ¿Cómo puedo obtener las reglas de decisión de MMSE y ML para la estimación de $Y$ para un ensayo determinado $X=x$ en función de $x,\sigma_Y^2,\sigma_Z^2$?


Sinceramente estoy perdido sobre cómo comenzar. Conocéis alguna teoría de la probabilidad, pero no tienen ninguna experiencia haciendo pruebas. Si alguien me apuntaría en la dirección correcta realmente lo agradeceria.

3voto

Michael Hardy Puntos 128804

$\newcommand{\E}{\operatorname{E}}\newcommand{\var}{\operatorname{var}}$Si un número $c$ es utilizado como una predicción del valor de una aún no observados variable aleatoria $W$, entonces la media cuadrática del error de predicción $\operatorname{E}((W-c)^2)$ es menor si $c=\operatorname{E}(W)$ si $c$ es cualquier otro número. Esto puede ser visto de la siguiente manera: Vamos a $\mu= \operatorname{E}(W);$ \begin{align} \operatorname{E}((W-c)^2) & = \operatorname{E}(((W-\mu) + (\mu-c))^2) \\[10pt] & = \operatorname{E}((W-\mu)^2 + 2(W-\mu)(\mu-c) + (\mu-c)^2) \\[10pt] & = \operatorname{E}((W-\mu)^2) + \operatorname{E}(2(W-\mu)(\mu-c)) + \operatorname{E}((\mu-c)^2) \\[10pt] & = \operatorname{var}(W) + 2(\mu-c)\operatorname{E}(W-\mu) + (\mu-c)^2 \\ & \qquad\qquad\qquad \text{since %#%#% and %#%#% are constant, i.e. not random} \\[12pt] & = \operatorname{var}(W) + 0 + (\mu-c)^2. \end{align} Esto depende de la $2(\mu-c)$ sólo a través de la pasada legislatura, y el último término es $(\mu-c)^2$ si $c$ y es positiva si $0$nada más.

Por lo tanto, lo que usted necesita es $c=\mu$ el valor esperado condicional de $c={}$ dado el caso de que $\operatorname{E}(Y\mid X=x),$ Hay varias maneras en que uno podría acercarse a la cuestión de la búsqueda de $Y$

Uno de ellos consiste en la articulación de la densidad de $X=x.$$\operatorname{E}(Y\mid X=x).$: $$ f_{Y,X}(y,z) = \text{constante} \cdot e^{-(y^2+z^2)/2}. $$ Estamos acondicionado en la suma de $Y$ Vistazo a la línea recta en la $Z$-plano donde su suma es $x=y+z.$. Su pendiente es $(y,z)$. Los conjuntos de nivel de la articulación de la densidad son los círculos $x$ y la densidad se hace más grande a medida que el círculo se hace más pequeño. La línea de $-1$ toca uno de los círculos en un solo punto y atraviesa cada uno de los círculos más grandes en dos puntos. El círculo que toca en un solo punto está en la línea $y^2+z^2=\text{radius}^2$, lo que satisface la línea de $y+z=\text{something}$ a un ángulo recto. Que un punto donde se toca es $z=y$ Que es el punto donde la articulación de la densidad alcanza su mayor valor en la línea $y+z=\text{something}$ Por la simetría de la articulación de la densidad, que es el punto en que la línea que representa el valor promedio de $(y,z)=(x/2,x/2).$ que $y+z=\text{something}.$ está en esa línea. En otras palabras, $(Y,Z)$ $(Y,Z)$

Otro enfoque consiste en adivinar basado en el portaron bien la naturaleza de la distribución de Gauss que $\operatorname{E}((Y,Z)\mid Y+Z=x) = (x/2,x/2).$ es algunas de línea recta en función de $\operatorname{E}(Y\mid X=x) = x/2.$ y, a continuación, averiguar en qué línea y, a continuación, encontrar un argumento para confirmar la conjetura. Una simple intuición debería sugerir $\operatorname{E}(Y\mid X=x)$, por lo que vamos a adivinar que $x$ y, a continuación, tratar de averiguar qué número $\operatorname{E}(Y\mid X=0) = 0,$ debe ser. Uno debe tener $\operatorname{E}(Y\mid X=x) = mx,$ $m$

Si el valor de $\operatorname{E}(Y\mid X) = mX,$ se observa, a continuación, $\operatorname{E}(Y-mX\mid X) = 0.$ es el valor de predicción de $X$, lo $mX$ es el residual -- la cantidad por la que el valor real difiere del valor predicho. El residual será independiente de la predicción sólo si la covarianza entre los residuales y la predicción es $Y$. Tenemos $$ \operatorname{cov}(Y-mX, X) = \operatorname{cov}(Y-m(Y+Z),Y+Z) = 1-2m $$ y esto es $Y-mX$ precisamente al $0$

Si podemos demostrar que $0$ es independiente de $m=\dfrac 1 2.$, luego tenemos a $Y-\dfrac 1 2 X$ también $X$, y, en consecuencia, $$ \operatorname{E}(Y\mid X) = \frac 1 2 X. $$ La covarianza entre el$\operatorname{E}\left( Y - \dfrac 1 2 X \mid X\right) = Y - \dfrac 1 2 X,$$\operatorname{E}\left(\dfrac 1 2 X \mid X\right) = \dfrac 1 2 X$$Y-\dfrac 1 2 X$. Cuando ambas variables son combinaciones lineales de Gaussianas independientes (en este caso $X$$0$), entonces eso es suficiente para inferir la independencia.

Tal vez esta es la mejor explicación que puedo dar sin más pensamiento o en la teoría de distribuciones normales multivariadas.

He aquí un punto de vista utilizando álgebra de matrices: Para un vector aleatorio $Y$ $$ \var(U) = \E\Big((U - \E U) (U - \E U)^T \Big) \in \mathbb R^{n\times n}. $$ Feller llama a esto la varianza; muchos autores llaman la matriz de covarianza o simplemente la covarianza porque sus entradas son las covarianzas entre las componentes escalares de $Z$.

Para $U\in\mathbb R^{n\times 1}$ tenemos $U$ un vector aleatorio en $A\in \mathbb R^{k\times n}$ y $$ \var(AU) = A \Big( \var(U) \Big)^T \in\mathbb R^{k\times k}. \tag 1 $$ Así $$ \var\begin{bmatrix} Y \\ Z \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} $$ \begin{align} \var\begin{bmatrix} Y \\ X \end{bmatrix} & = \var\left( \begin{bmatrix} 1 & 0 \\ 1 & 1 \end{bmatrix}\begin{bmatrix} Y \\ Z \end{bmatrix} \right) \\[10] y = \begin{bmatrix} 1 & 1 \\ 1 & 2 \end{bmatrix} \text{ por }(1). \end{align} \begin{align} \var\begin{bmatrix} X \\ Y-\frac 1 2 X \end{bmatrix} = \begin{bmatrix} 0 & 1 \\ 1 & -1/2 \end{bmatrix}\begin{bmatrix} Y \\ X \end{bmatrix} = \begin{bmatrix} 2 & 0 \\ 0 & 1/2 \end{bmatrix} \text{ por } (1). \end{align}

[ a continuación ]

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X