NOTA: Esta pregunta ha sido originalmente se ha publicado en MSE pero no generó ningún interés. Se publicó por primera vez allí, porque la pregunta en sí es una pregunta pura de álgebra matricial.
No obstante, dado que el motivo tiene que ver con la estadística y la econometría, voy a publicar la pregunta en Cross Validated también, con la esperanza de que algún cerebro experto en estadística/álgebra matricial tenga algo que aportar.
El marco es el siguiente: Tenemos una muestra transversal i.i.d. $\{\mathbf y, \mathbf X\}$ , donde $\mathbf y$ es un $N \times 1$ vector columna, y $\mathbf X$ es un $N\times K$ matriz. Postulamos una relación lineal entre $\mathbf y$ y $\mathbf X$ ,
$$\mathbf y = \mathbf X \beta + \mathbf u $$ donde $\mathbf u$ es ruido blanco con varianza $\sigma^2$ y exógena a los regresores en el $\mathbf X$ matriz, y $\beta$ es un $K\times 1$ vector columna de coeficientes constantes desconocidos. Bajo este supuesto, el estimador OLS es insesgado y consistente. Supongamos ahora que $N$ es "grande", digamos $O \left( 10^{4} \right)$ o más (muestras tan grandes han empezado a aparecer también en el campo de la econometría). Entonces, un investigador podría considerar las dos opciones siguientes:
$A$ ) Corre un Regresión OLS utilizando toda la muestra. Esta táctica puede considerarse como una apelación a la propiedad de consistencia del estimador MCO. Llamamos a este estimador $\hat \beta$ .
$B$ ) Dividir la muestra en $m$ disyuntiva submuestras (para simplificar, se supone que tienen la misma longitud, y nótese que su unión es igual a la muestra completa), ejecute $m$ regresiones, y calcular la media de las $m$ estimaciones de los coeficientes que obtendrá de este modo. Esta táctica puede considerarse como una apelación a la propiedad de insesgadez del estimador MCO. Llamamos a este estimador promediado $\bar b_m$ .
(Tenga en cuenta que la táctica $B$ no entra en ningún enfoque de remuestreo, como bootstrap, submuestreo o jackknife -para ser exactos, se ha considerado como un caso marginal en la aplicación de jackknife en series temporales, pero no es realmente un método jackknife).
He obtenido un resultado muy bonito (para mí) que muestra que la varianza del estimador de la muestra completa es siempre menor que la varianza del estimador de la media:
$$\text{Var}\left(\bar b_m\right) > \text{Var}\left(\hat \beta\right) $$ Digo que es bonito porque el resultado utiliza la desigualdad de la media aritmética-armónica para las matrices PD, probado aquí : Específicamente, escribir $Z_l= \left(X_l'X_l\right)^{-1}$ para la matriz de momentos inversa de los regresores del l -en la muestra, l \= $1,...,m$ , denotando por $A_m$ la media aritmética y por $H_m$ la media armónica de estos $Z$ matrices, no es difícil llegar a lo siguiente:
$$\text{Var}\left(\bar b_m\right) = \frac1m\sigma^2A_m > \frac1m\sigma^2H_m =\text{Var}\left(\hat \beta\right) $$
...la desigualdad se mantiene en el sentido matricial. Nótese que $H_m$ es la media armónica de $\left(X_1'X_1\right)^{-1},...,\left(X_m'X_m\right)^{-1} $ en el verdadero sentido matricial, no una matriz que contenga las medias armónicas de los elementos correspondientes de las matrices que promedia.
Así que el estimador de la media $\bar b_m$ es siempre menos eficiente que el estimador de toda la muestra $\hat \beta$ .
Mi pregunta: ¿Existen límites conocidos para la diferencia entre las medias aritmético-armónicas de las matrices?
Para los números reales son (véase el artículo wiki y los recursos originales aquí y aquí ).
¿Por qué? porque será útil para pasar al siguiente paso y comparar estimadores que pueden no ser ni insesgados ni consistentes, por lo que uno se queda con un criterio como el del Mínimo Error Cuadrado para compararlos.
Cualquier sugerencia, enlace o referencia será realmente apreciada.