Esbozaré la respuesta.
En realidad, todo este problema no es más que una variación del cálculo de los estimadores lineales del error cuadrático medio mínimo. Una vez que entiendes uno, entiendes todos.
Retirada: Supongamos que $A$ es una variable aleatoria que se desea estimar y $B_1,\ldots,B_n$ son variables aleatorias y $\mathbb{E}(A) = \mathbb{E}(B_i) = 0$ para todos $i$ . Desea formar un estimador $\tilde{A} = \sum \alpha_i B_i$ de $A$ para algunas constantes $\alpha\equiv(\alpha_1,\ldots,\alpha_n)$ independiente de $A$ y $B_i$ . Observe \begin{eqnarray} \mathbb{E}(\tilde{A} - A)^2 &=& \mathbb{E}\left(\sum_i \alpha_i B_i - A \right)^2 \\ &=& \mathrm{Var}(A) + \sum_{i,j} \alpha_i \alpha_j \mathrm{Cov}(B_i,B_j) - 2\sum_i\mathrm{Cov}(A,B_i). \end{eqnarray} Diferenciar para hallar el $\alpha$ que produzca el mínimo error cuadrático esperado: $$ \alpha = M^{-1} V $$ donde $M$ es el $n\times n$ matriz con $i,j$ entrada $\mathrm{Cov}(B_i,B_j)$ y $V$ es el $n\times 1$ vector con $i$ ª entrada $\mathrm{Cov}(A,B_i)$ .
De acuerdo. Eso fue realmente general. Siempre funciona para encontrar el estimador lineal con el mínimo error cuadrático esperado (LMMSE o como quieras llamarlo). Sin suposiciones sobre independencia ni nada por el estilo. Sólo suposiciones: $A,B_i$ son medios $0$ (puede ampliarse fácilmente), el $M$ matriz es no singular (siempre será cierto a menos que una de las $B_i$ es una combinación lineal de las demás, es decir, es redundante), y las matrices $M$ y $V$ debe ser conocido (raramente cierto en el mundo real, a menudo cierto en los conjuntos de problemas).
Así que en este problema, para calcular $\tilde{X}_{i'1}$ y $\tilde{X}_{i'2}$ Utiliza el método anterior con los siguientes cálculos: \begin{eqnarray} \mathrm{Cov}(Y_i,Y_j) &=& w \sum_k a_{ik} a_{jk} + \sigma^2 \delta_{ij} \\ \mathrm{Cov}(X_{i'},Y_i) &=& w \alpha_{ii'} \end{eqnarray} Una vez más, basta con aplicar cuidadosamente el método anterior. Tendrás que decir algo como: "El óptimo $\alpha$ es $M^{-1} V$ donde $M$ es la matriz ... y $V$ es el vector columna ..." donde los "... "s se dan en términos del $\mathrm{Cov}$ cálculos anteriores. No es muy perspicaz.
Lo único interesante aquí es que si uno deja que $V$ sea el $n\times n$ matriz de covarianza con $i,j$ entrada $\mathrm{Cov}(Y_i,Y_j)$ entonces $$ V = w aa^T + \sigma^2 I_n $$ donde $a$ es el $n\times n$ matriz con $i,j$ entrada $a_{ij}$ .
Para calcular el estimador lineal óptimo dado $\tilde{X}_{i1}$ y $\tilde{X}_{i2}$ puede utilizar exactamente el mismo método. Sin embargo, los cálculos necesarios para $\mathrm{Cov}(\tilde{X}_{i1,2},\tilde{X}_{i1,2})$ y $\mathrm{Cov}(X_{i'},\tilde{X}_{i1,2})$ dependerá de los coeficientes óptimos calculados en la primera parte. Por lo tanto, es posible que sea muy complicado. En mi opinión, no me sorprendería que no fueran posibles grandes simplificaciones. No lo sé. Pruébalo. Buena suerte.