7 votos

Una interesante propiedad de las matrices reales simétricas con sumas de filas y columnas nulas

Dejemos que $A$ ser un $n \times n$ matriz simétrica real con sumas de filas y columnas nulas. Por ejemplo, $$ A=\begin{bmatrix}1 & -2 & 1\\ -2 & 1 & 1\\ 1 & 1 & -2 \end{bmatrix}. $$ Tengo la siguiente observación interesante sobre $A$ en general.

Reclamación: Supongamos que $\mathrm{rank}(A)=n-1$ y que $v_1, v_2,\dots ,v_{n-1}$ sea el $n-1$ vectores propios normalizados (con longitud unitaria) correspondientes al $n-1$ valores propios no nulos. Sea $\mathbf{V}=[v_1,\dots,v_{n-1}]$ ser un $n\times(n-1)$ matriz de la que cada columna $i$ es el vector propio $v_i$ . Tenemos $$ I-\mathbf{V}\mathbf{V}^{T}=\frac{1}{n}\begin{bmatrix}1 & \dots & 1\\ \vdots & \vdots & \vdots\\ 1 & \dots & 1 \end{bmatrix}, $$ donde $I$ es la matriz de identidad, y $n$ es el número de columnas.

En cuanto a nuestro particular $A$ en la pantalla, tenemos $$ \mathbf{V}=\begin{bmatrix}\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{6}}\\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{6}}\\ 0 & -\frac{2}{\sqrt{6}} \end{bmatrix}. $$ Se puede comprobar fácilmente la afirmación anterior para este ejemplo. He generado al azar muchas matrices de este tipo, y la afirmación se mantiene. Así que puede ser correcta.

Mi pregunta es cómo probarlo. Después de pasar muchas horas, he avanzado poco hasta ahora. Lo único significativo que he encontrado es que cualquier vector propio de $A$ debe sumar cero, porque $0=1^TAv=\lambda 1^Tv$ . Aquí $\{\lambda, v\}$ denota un par genérico de valor propio y vector propio. Una observación adicional es que todos los cofactores de $A$ son idénticos. Pero estas observaciones están lejos de ser suficientes para entender esta afirmación. Cualquier pensamiento es bienvenido. Gracias.

0 votos

Si A tiene eigenspaces de dimensión superior a 1 es mejor utilizar una base ortonormal.

2voto

JHance Puntos 3797

El punto clave es que las sumas de filas y columnas son cero (equivalente para una matriz simétrica), sólo significa que el eigenvector final es $$\frac{1}{\sqrt{n}}\begin{pmatrix} 1 \\ \vdots \\ 1 \end{pmatrix}$$ , llame a este vector $w$ Dejemos que $W$ sea el $n \times n$ matriz donde hemos adjuntado este vector propio $w$ como columna final. Su afirmación es entonces que en este caso

$$ WW^T = I = VV^T + ww^T$$

Lo que se deduce simplemente de las reglas de la multiplicación de matrices, como se señala en los comentarios.

0 votos

En este punto lo que estás afirmando es que W es ortogonal porque $W W^T = I$ si $W^T W = I$ . Pero esto es obvio ya que normalizamos los vectores propios y los vectores propios de las matrices simétricas con respecto a los diferentes valores propios son ortogonales.

0 votos

@blue por supuesto, estaba invocando el teorema espectral real de dimensión finita para obtener $W$ ortogonal, el verdadero meollo de la cuestión es que $VV^T + ww^T$ es el producto completo.

0 votos

@JHance Creo que ya has demostrado mi afirmación. Dado $WW^T = VV^T + ww^T$ Sólo tenemos que argumentar $WW^T=W^TW$ para $W^TW=I$ . Desde $W$ es ortogonal, W conmuta con su transposición, es decir $WW^T=W^TW$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X