21 votos

Propiedades de cero diagonal matrices simétricas

Estoy interesado en las propiedades de cero diagonal simétrica (o hermitian) de matrices, también conocido como hueco simétrica (o hermitian) de matrices.

La única cosa que se me ocurre es que no puede ser positiva definida (si no es la matriz cero): La descomposición de Cholesky, prevé positiva definida matrices $A$ la existencia de un menor triangular $L$$A=LL^*$. Sin embargo, la diagonal de $LL^*$ es el producto interior de cada una de las filas de $L$ con sí mismo. Desde la diagonal de $A$ se compone de ceros, por lo $L$ (y por lo tanto $A$) debe ser la matriz cero.

El tipo de preguntas que me interesan son:

  • que simétricas matrices pueden ser transformados ortogonalmente en un cero de la matriz diagonal?
  • ¿qué podemos decir acerca de los eigen-valores de cero-diagonal de la matriz simétrica?.
  • cualquier otro interesante propiedades conocidas??

16voto

Andrew Puntos 140

Voy a considerar el caso especial de tridiagonal simétrica matrices con cero diagonal para esta respuesta.

Yo prefiero llamar a la orden tridiagonal queridos Golub-Kahan matrices. Estas matrices se convierten en derivados de la modificación de los códigos QR algoritmo para el cálculo de la descomposición de valor singular (SVD). Más precisamente, dada una $n\times n$ bidiagonal matriz como ($n=4$)

$$\mathbf B=\begin{pmatrix}d_1&e_1&&\\&d_2&e_2&\\&&d_3&e_3\\&&&d_4\end{pmatrix}$$

el $2n\times 2n$ bloque de matriz $\mathbf K=\left(\begin{array}{c|c}\mathbf 0&\mathbf B^\top \\\hline \mathbf B&\mathbf 0\end{array}\right)$ es similar a la de Golub-Kahan tridiagonal

$$\mathbf P\mathbf K\mathbf P^\top=\begin{pmatrix}& d_1 & & & & & & \\d_1 & & e_1 & & & & & \\& e_1 & & d_2 & & & & \\& & d_2 & & e_2 & & & \\& & & e_2 & & d_3 & & \\& & & & d_3 & & e_3 & \\& & & & & e_3 & & d_4 \\& & & & & & d_4 & \end{pmatrix}$$

donde $\mathbf P$ es una matriz de permutación. Esta similitud de transformación se conoce como el "perfecto shuffle".

La importancia de esto es que los autovalores de la Golub-Kahan matrices siempre vienen en $\pm$ parejas; más precisamente, si $\mathbf B$ tiene valores singulares de a $\sigma_1,\sigma_2,\dots,\sigma_n$, entonces los valores propios de la Golub-Kahan tridiagonal se $\pm\sigma_1,\pm\sigma_2,\dots,\pm\sigma_n$.

Impar de orden cero-diagonal tridiagonals puede ser tratado de forma similar, ya que tienen un autovalor cero, además de la $\pm$ pares de autovalores. El tratamiento de Golub-Kahan tridiagonals se aplica después de desinflar el autovalor cero; uno puede hacer esto mediante la aplicación de la descomposición QR $\mathbf T=\mathbf Q\mathbf R$ y la formación del producto $\mathbf R\mathbf Q$ y la eliminación de la última fila y la última columna, formando así un Golub-Kahan tridiagonal.

Ver Barrio y Gris del papel (junto con los asociados código de FORTRAN) y esta hermosa encuesta por David Watkins.

10voto

Studer Puntos 1050

Con respecto a las dos primeras preguntas, las matrices que pueden ser ortogonal transformado en un cero de la diagonal de la matriz simétrica son exactamente los simétrica matrices tales que la suma de sus valores propios es cero.

En efecto, puesto que la traza de una matriz simétrica es la suma de sus valores propios, la necesidad de la siguiente manera. Y la suficiencia de la siguiente manera a partir de la Schur-Horn Teorema, que dice que las diagonales de un operador son exactamente los majorized por el autovalor vector; si los autovalores $\lambda_1,\ldots,\lambda_n$ agregar a cero, entonces el vector cero es majorized por $\lambda$, por lo que hay un ortonormales base de que en esa base, el operador tiene cero diagonal.

Como para otras propiedades de estas matrices, no creo que mucho se puede decir: tome $n\times n$ simétrica matriz $A$ y expandir como $A\oplus\text{Tr}(-A)$; esto es ortogonalmente similar a la de un cero en la diagonal de la matriz.

2voto

Manikanta Borah Puntos 45

1) Traza es igual a cero. 2) Que sean unitarios de las matrices es decir, el determinante es cero.

por ejemplo: real sesgo de simetría de la matriz.

0voto

riotgrrrl101 Puntos 1

Desde un punto de vista de la aplicación: Si las filas y columnas de la matriz M representan objetos de datos, y la matriz de entradas son las distancias entre ellos, luego de un Hermitian la matriz H representa una relación asimétrica de distancia de acuerdo a:

H = (1/2) (M+M^T) + i(1/2)(M-M^T)

donde ^T es una matriz transpuesta

violar el axioma de un espacio métrico que las distancias d(a,B) = d(B,A) para algunos "la función de distancia" d() La diagonal cero significa que la distancia de un objeto a sí mismo es cero, conservando el axioma: d(a,a) = 0

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X