1 votos

Combinación óptima de dos estimaciones

Tengo un conjunto de variables aleatorias, $X_1,\dots,X_N$ . Son gaussianas i.i.d. con media cero y $w$ varianza. Observo $Y_1,\dots,Y_N$ donde $Y_i=\sum_{j=1}^N a_{ij} X_j+N_i$ donde todos $a_{ij}$ s son conocidos y $N_i$ es ruido gaussiano con media cero y $\sigma^2$ varianza.

Ahora hago una estimación lineal del error cuadrático medio mínimo (LMMSE) $\tilde{X}_{i^\prime1}$ de $X_{i^\prime}$ dado $Y_1,\dots Y_{i^\prime}$ . Entonces hago una estimación similar $\tilde{X}_{{i^\prime}2}$ de $X_{i^\prime}$ dado $Y_{i^\prime},\dots Y_N$ .

(a) ¿Son estas dos estimaciones $\tilde{X}_{{i^\prime}1}$ , $\tilde{X}_{{i^\prime}2}$ ¿independiente? Yo creo que no.

(b) ¿Cuál es la combinación óptima de estas dos estimaciones? $\tilde{X}_{{i^\prime}1}$ y $\tilde{X}_{{i^\prime}2}$ ?

Por favor, explíqueme estas preguntas. Muchas gracias.

PS. La pregunta Combinación óptima de muestras para estimar medias tiene una forma similar pero diferente, ya que las estimaciones son independientes.

3voto

Will Nelson Puntos 3966

Esbozaré la respuesta.

En realidad, todo este problema no es más que una variación del cálculo de los estimadores lineales del error cuadrático medio mínimo. Una vez que entiendes uno, entiendes todos.

Retirada: Supongamos que $A$ es una variable aleatoria que se desea estimar y $B_1,\ldots,B_n$ son variables aleatorias y $\mathbb{E}(A) = \mathbb{E}(B_i) = 0$ para todos $i$ . Desea formar un estimador $\tilde{A} = \sum \alpha_i B_i$ de $A$ para algunas constantes $\alpha\equiv(\alpha_1,\ldots,\alpha_n)$ independiente de $A$ y $B_i$ . Observe \begin{eqnarray} \mathbb{E}(\tilde{A} - A)^2 &=& \mathbb{E}\left(\sum_i \alpha_i B_i - A \right)^2 \\ &=& \mathrm{Var}(A) + \sum_{i,j} \alpha_i \alpha_j \mathrm{Cov}(B_i,B_j) - 2\sum_i\mathrm{Cov}(A,B_i). \end{eqnarray} Diferenciar para hallar el $\alpha$ que produzca el mínimo error cuadrático esperado: $$ \alpha = M^{-1} V $$ donde $M$ es el $n\times n$ matriz con $i,j$ entrada $\mathrm{Cov}(B_i,B_j)$ y $V$ es el $n\times 1$ vector con $i$ ª entrada $\mathrm{Cov}(A,B_i)$ .

De acuerdo. Eso fue realmente general. Siempre funciona para encontrar el estimador lineal con el mínimo error cuadrático esperado (LMMSE o como quieras llamarlo). Sin suposiciones sobre independencia ni nada por el estilo. Sólo suposiciones: $A,B_i$ son medios $0$ (puede ampliarse fácilmente), el $M$ matriz es no singular (siempre será cierto a menos que una de las $B_i$ es una combinación lineal de las demás, es decir, es redundante), y las matrices $M$ y $V$ debe ser conocido (raramente cierto en el mundo real, a menudo cierto en los conjuntos de problemas).

Así que en este problema, para calcular $\tilde{X}_{i'1}$ y $\tilde{X}_{i'2}$ Utiliza el método anterior con los siguientes cálculos: \begin{eqnarray} \mathrm{Cov}(Y_i,Y_j) &=& w \sum_k a_{ik} a_{jk} + \sigma^2 \delta_{ij} \\ \mathrm{Cov}(X_{i'},Y_i) &=& w \alpha_{ii'} \end{eqnarray} Una vez más, basta con aplicar cuidadosamente el método anterior. Tendrás que decir algo como: "El óptimo $\alpha$ es $M^{-1} V$ donde $M$ es la matriz ... y $V$ es el vector columna ..." donde los "... "s se dan en términos del $\mathrm{Cov}$ cálculos anteriores. No es muy perspicaz.

Lo único interesante aquí es que si uno deja que $V$ sea el $n\times n$ matriz de covarianza con $i,j$ entrada $\mathrm{Cov}(Y_i,Y_j)$ entonces $$ V = w aa^T + \sigma^2 I_n $$ donde $a$ es el $n\times n$ matriz con $i,j$ entrada $a_{ij}$ .

Para calcular el estimador lineal óptimo dado $\tilde{X}_{i1}$ y $\tilde{X}_{i2}$ puede utilizar exactamente el mismo método. Sin embargo, los cálculos necesarios para $\mathrm{Cov}(\tilde{X}_{i1,2},\tilde{X}_{i1,2})$ y $\mathrm{Cov}(X_{i'},\tilde{X}_{i1,2})$ dependerá de los coeficientes óptimos calculados en la primera parte. Por lo tanto, es posible que sea muy complicado. En mi opinión, no me sorprendería que no fueran posibles grandes simplificaciones. No lo sé. Pruébalo. Buena suerte.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X