10 votos

Los autovalores de a $MA$ frente a los autovalores de a $A$ para la proyección ortogonal $M$

Supongamos que $M$ es simétrica idempotente $n\times n$ y tiene un rango de $n-k$. Supongamos que $A$ $n\times n$ y positiva definida. Deje $0<\nu_1\leq\nu_2\leq\ldots\nu_{n-k}$ ser distinto de cero autovalores de a $MA$ $0<\lambda_1\leq\lambda_2\leq\cdots\leq\lambda_n$ ser los autovalores de a $A$. Estoy tratando de mostrar que $$ \forall i=1,\ldots,n-k:\quad 0<\lambda_i\leq\nu_i\leq\lambda_{i+k}\etiqueta{$*$} $$ Habrá una recompensa de 300 para la aceptación de la respuesta. Puede alguien por favor hacer todas las (intento de) pruebas de abajo como spoilers? Sólo puedo hacer que para la primera prueba.

Intento: tengo un intento de aquí el uso de Durbin y Watson (1950) , pero no entiendo bien los autores del argumento, de modo que el intento es incompleta. No obstante, voy a presentar el intento de aquí. Paso 3 a continuación es donde estoy atascado.


Paso 1: Uno puede escribir $M$ $M_kM_{k-1}\cdots M_1$ donde $M_i=I_n-p_ip_i'$ $\{p_1,\ldots,p_k\}$ es un conjunto de $n\times 1$ mutuamente ortogonales los vectores de s.t. $||p_i||=1$.

Prueba. $M$, por supuesto, puede ser escrito como $M=I_n-X(X'X)^{-1}X'$ donde $X$ $n\times k$ completo con columna de rango. Deje $P=(p_1,\ldots,p_k)$ (dimensión$n\times k$) $Q$ poco de la descomposición QR de $X$.

Paso 2: Deje $T=(T_1,\ldots,T_n)$ $n\times n$ matriz de vectores propios ortonormales de $A$ que corresponde a los autovalores $\lambda_1,\ldots,\lambda_n$. Deje $l_{1i}=T_i'p_1$. Entonces cualquier valor distinto de cero autovalor $\theta$ $M_1A$ satisface $$ \sum_{i=1}^nl_{1i}^2\prod_{j\neq i}(\theta\lambda_j)=0.\la etiqueta{$**$} $$

Prueba. Para cualquier autovalor (posiblemente $0$) $\theta$ de $M_1A$, tenemos $$ 0=|I_n\theta-M_1A|=|I_n\theta(I_n-p_1p_1')|=|I_n\theta(I_n-l_1l_1')\Lambda| $$ Aquí, $l_1$ $n\times 1$ vector columna con las entradas de $l_{1i}$$\Lambda=\text{diag}(\lambda_1,\ldots,\lambda_n)$. Escribir $I_n\theta-(I_n-l_1l_1')\Lambda$ en total. Restar $l_2/l_1$ veces la primera fila de la segunda fila, $l_3/l_1$ veces la primera fila de la tercera fila, y así sucesivamente, y, a continuación, ejecutar la expansión de Laplace a lo largo de la primera fila. El resultado es $$ 0=|I_n\theta-(I_n-l_1l_1')\Lambda|=\prod_{j=1}^n(\theta-\lambda_j)+\sum_{i=1}^nl_{1i}^2\lambda_{i}\prod_{j\neq i}(\theta\lambda_j). $$ Conectar $\theta=0$ en el de más a la derecha de la expresión anterior da $\sum_{i=1}^2l_{1i}^2=1$. Por lo tanto, \begin{align*} 0&=\sum_{i=1}^nl_{1i}^2\prod_{j=1}^n(\theta-\lambda_j)+\sum_{i=1}^nl_i^2\lambda_{i}\prod_{j\neq i}(\theta-\lambda_j)\\ &=\sum_{i=1}^nl_{1i}^2(\theta-\lambda_i)\prod_{j\neq i}(\theta-\lambda_j)+\sum_{i=1}^nl_i^2\lambda_{i}\prod_{j\neq i}(\theta-\lambda_j) \end{align*} que puede ser simplificado y, por $\theta\neq 0$, dividido por $\theta$ get ($**$).

Paso 3: Deje $0=\cdots =0<\theta_1^{(s)}\leq \theta_2^{(s)}\leq \theta_{n-s}^{(s)}$ ser los autovalores de a $M_sM_{s-1}\cdots M_1A$. A continuación, $$ \forall s=1,\ldots,k:\quad \theta_i^{(s-1)}\leq\theta_i^{(s)}\leq \theta_{i+1}^{(s-1)},\quad i=1,\ldots,n-s.\la etiqueta{$***$} $$ Aquí el $\lambda_i$'s son las $\theta_i^{(0)}$'s.

Prueba. Vamos a construir el primer paso para el caso de $s=1$. Considere la posibilidad de $$ f(\theta)=\sum_{i=1}^nl_{1i}^2\prod_{j\neq i}(\theta\lambda_j) $$ y considerar la posibilidad de $[\lambda_r,\lambda_{r+1}]$$r=1,\ldots,n-1$. Cualquiera de las $f(\lambda_r)=0$ o $f(\lambda_{r+1})=0$ o $f(\lambda_r)f(\lambda_{r+1})\neq 0$. Es fácil mostrar que, en general, $f(\lambda_r)f(\lambda_{r+1})\leq 0$ si $f(\lambda_r)f(\lambda_{r+1})\neq 0$$f(\lambda_r)f(\lambda_{r+1})< 0$, por lo que por el Teorema del Valor Intermedio, existe un cero de $f$$(\lambda_r,\lambda_{r+1})$. En suma, no es un cero de $f$ en cada una de las $[\lambda_r,\lambda_{r+1}]$ por cada $r=1,\ldots,n-1$. De ello se sigue que $$ 0<\lambda_1\leq\theta_1^{(1)}\leq\lambda_2\leq \theta_2^{(1)}\leq\cdots\leq \theta_{n-1}^{(1)}\leq\lambda_n. $$ Esto demuestra ( $***$ )$s=1$. Proceder con $M_2M_1A$ $M_2(M_1A)$ get ( $***$ )$s=2$. Y así sucesivamente.

Paso 4: ($*$) se mantiene.

Prueba. Por el Paso 3, para $i=1,\ldots,n-k$, $$ \nu_i=\theta_i^{(k)}\geq \theta_i^{(k-1)}\geq \cdots \geq \theta_i^{(1)} \geq \theta_i^{(0)}=\lambda_i. $$ Del mismo modo, $$ \nu_i=\theta_i^{(k)}\geq \theta_{i+1}^{(k-1)}\geq \cdots \geq \theta_{i+k-1}^{(1)} \geq \theta_{i+k}^{(0)}=\lambda_{i+k}. $$

Problema con el Paso 3. El caso de $s=1$ $M_1A$ se basa en la $A$ ser diagonalizable. No creo que el mismo argumento funciona para $M_2(M_1A)$ porque no sabemos el diagonalizability de $M_1A$. Así que no creo que la inducción paso en el Paso 3 obras (Durbin y Watson (1950) afirman que sí.). Por otra parte, aunque estoy seguro de que en el Teorema del Valor Intermedio argumento, no estoy seguro acerca de la siguiente solicitud:

De ello se sigue que $$ 0<\lambda_1\leq\theta_1^{(1)}\leq\lambda_2\leq \theta_2^{(1)}\leq\cdots\leq \theta_{n-1}^{(1)}\leq\lambda_n. $$

3voto

Chris Ballance Puntos 17329

Como $M$ es simétrica idempotente, con respecto a su ortonormales eigenbasis, usted puede asumir que $M=I_{n-k}\oplus0$. Entonces los autovalores de a $MA$ son sólo los autovalores de los líderes principales de $(n-k)\times(n-k)$ submatriz de a $A$. Así que, básicamente, la desigualdad en la pregunta se refiere a los valores propios de una matriz positiva definida $A$ a los valores propios de su principal submatriz. Esto en realidad es un conocido resultado de que no sólo es cierto para positiva definida matrices, pero para todos los Hermitian matrices. Ver, por ejemplo, el teorema de 4.3.15 (p.189) de Cuerno y Johnson, Análisis de la Matriz de, 1/e, Cambridge University Press, 1985.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X