14 votos

¿Por qué es la identidad la simétrica sólo $0$$1$matriz con los valores propios positivos?

Al pensar en esta pregunta me las arreglé para convencer a mí mismo que la identidad es la única simétrica $0$-$1$ matriz con todos los valores propios positivos. Sin embargo, el argumento es bastante bajo de nivel. No da mucha idea de por qué, de todas las matrices simétricas, $0$-$1$ matrices y matrices con todos los autovalores positivos, la identidad es la única matriz que, simultáneamente, tiene las tres propiedades.

Así que mi pregunta es

Alguien puede dar una explicación intuitiva de por qué la identidad es la única simétrica $0$-$1$ matriz con todos los autovalores positivos?

Tal explicación podría implicar una mayor imagen argumento de que el que se me ocurrió.

Para referencia, aquí está mi argumento. Deje $A$ ser simétrica $0$-$1$ matriz con todos los valores propios positivos.

  1. Simétrica y todos los autovalores positivos implica $A$ es positiva definida.
  2. $A$ debe tener todas las $1$'s en su diagonal. Esto es debido a que $a_{jj} = 0 \implies {\bf e}_j^T A {\bf e}_j = 0$, lo que contradice positiva definida.
  3. $A$ debe tener todas las $0$'s de la diagonal de los elementos. Esto es debido a que $A$ es simétrica implica $a_{ij} = a_{ji}$, e $a_{ij} = a_{ji} = 1 \implies ({\bf e}_i - {\bf e}_j)^T A ({\bf e}_i - {\bf e}_j) = 0$, lo que contradice positiva definida.
  4. Por lo tanto $A$ es la identidad.


Aclaración: estoy buscando una respuesta a lo largo de estas líneas: "Una matriz simétrica implica o es equivalente a $X$ sobre el subyacente de la transformación lineal. Un $0$-$1$ matriz implica o es equivalente a $Y$ sobre el subyacente de la transformación lineal. Todos los autovalores positivos implica o es equivalente a $Z$ sobre la base lineal de transformación. ($X$, $Y$, y $Z$ son todos grandes propiedades de la imagen.) [Inserte el argumento aquí.] Por lo tanto la única matriz que satisface simultáneamente $X$, $Y$, y $Z$ es la identidad."

Robert la respuesta israelí, mientras que bonito, no es el tipo de cosa que yo estoy esperando. Me ven como una de las más elegantes de la versión de mi propio bajo nivel de argumento sobre lo que la forma de las entradas de la matriz tiene que tomar, y no qué tipo de transformación lineal tiene estas tres propiedades.

18voto

Matthew Scouten Puntos 2518

Otra forma de expresarlo: si $A$ es positivo definido, también lo es la submatriz de $2 \times 2$ que consta de filas y columnas de $i$ y $j$ (para cualquier $i \ne j$). El factor determinante de esta submatriz es $a_{ii} a_{jj} - a_{ij}^2$, y si las entradas son en $\{0,1\}$ la única manera de tener $a_{ii} a_{jj} - a_{ij}^2 > 0$ $a_{ii} = a_{jj} = 1$ y $a_{ij} = 0$.

2voto

Martin OConnor Puntos 116

Aquí hay dos "más grande de la imagen" de los argumentos que he encontrado que me considere suficiente.

Deje $A$ ser simétrica, $0$-$1$ matriz con todos los valores propios positivos.


Prueba 1: matrices de Correlación.

Deje $B$ ser la diagonal de la matriz que consta de $1$'s donde: $A$ $0$'s y $0$'s donde: $A$ $1$'s. A continuación, $A+B$ es una matriz de correlación. Ya no negativo de la adición de los valores de a $A$'s de la diagonal no puede disminuir cualquiera de $A$'s valores propios (véase, por ejemplo, Weyl de la desigualdad), $A+B$ tiene todos los autovalores positivos y por lo tanto es invertible. Pero la única invertible $0$-$1$ matriz de correlación es la identidad. (*) Desde $A+B$ es la identidad, $A$ debe ser una matriz diagonal. Pero la única invertible $0$-$1$ diagonal de la matriz es la identidad. Por lo tanto, $A$ es la matriz identidad.


Prueba 2: transformaciones Lineales.

Desde $A$ es una verdadera matriz simétrica es ortogonalmente diagonalizable, lo que significa que representa una transformación lineal con escala en direcciones mutuamente perpendiculares. Dado que los valores propios son los factores de escala para las diferentes direcciones, los factores de escala son todas positivas. Esto implica que para ${\bf x} \neq {\bf 0}$, $A$ no se puede asignar a ${\bf x}$ a un vector que es perpendicular a ${\bf x}$. (Esto sigue geométricamente, pero también se puede ver esta recordando que positiva definida implica algo aún más fuerte: $A {\bf x}$ debe hacer un ángulo agudo con ${\bf x}$.)

Esto no ortogonalidad de restricción entre el $A {\bf x}$ ${\bf x}$ descarta cualquier diagonal elementos de $A$$0$, ya que de lo contrario $a_{ii} = 0$ implicaría ${\bf e}_i$ $A {\bf e}_i$ son ortogonales.

Desde $A$ todos los $1$'s a lo largo de su diagonal, la no ortogonalidad de restricción de ahora las reglas de cualquier fuera de la diagonal elementos $1$. Supongamos lo contrario; es decir, que $a_{ij} = a_{ji} = 1$$a_{ii} = a_{jj} = 1$. A continuación, $A$ mapas tanto en ${\bf e}_i$ ${\bf e}_j$ a el vector $(1,1)$ cuando el rango de $A$ está restringido a las 2D subespacio dado por el lapso$\{ {\bf e}_i, {\bf e}_j\}$. Pero esto significa que $A$ mapas de ${\bf e}_i - {\bf e}_j$ a el vector $(0,0)$ cuando el rango de $A$ está restringido a palmo$\{ {\bf e}_i, {\bf e}_j\}$. Desde ${\bf e}_i - {\bf e}_j$ es en sí mismo lapso$\{ {\bf e}_i, {\bf e}_j\}$, esto implica que ${\bf e}_i - {\bf e}_j$ $A ({\bf e}_i - {\bf e}_j)$ son ortogonales, y tenemos nuestra contradicción con la no ortogonalidad de restricción.

La única opción que queda es que el $A$ es la matriz identidad.

(Esta segunda prueba es principalmente sólo una traducción original de mi prueba en transformación lineal de los términos.)


(*) Añadido: Marvis preguntó en mi blog para una explicación de por qué la única invertible $0$-$1$ matriz de correlación es la identidad. Aquí es un uno. En primer lugar, cada matriz de correlación ha $1$'s en su diagonal. En segundo lugar, un $0$-$1$ matriz de correlación significa que cualquiera de los subyacentes a las variables aleatorias son no correlacionados o perfectamente correlacionadas. Diferentes, pero perfectamente correlacionadas las variables aleatorias (lo que significa que tienen un $1$ fuera de la diagonal) son múltiplos escalares de cada uno de los otros. Esta dependencia lineal se traslada a la matriz de correlación, que por lo tanto no puede ser invertible.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X