Deje $A=(a_{ij})$ $n\times n$ matriz. Supongamos que $A^2$ es la diagonal? Debe $A$ ser diagonal.
En otras palabras, es cierto que
$$A^{2}\;\text{is diagonal}\;\Longrightarrow a_{ij}=0,\;i\neq j\;\;?$$
Deje $A=(a_{ij})$ $n\times n$ matriz. Supongamos que $A^2$ es la diagonal? Debe $A$ ser diagonal.
En otras palabras, es cierto que
$$A^{2}\;\text{is diagonal}\;\Longrightarrow a_{ij}=0,\;i\neq j\;\;?$$
Como una simplificado caso, considere la posibilidad de $n=2$ y deje $$A=\begin{pmatrix}a&b\\c&d\end{pmatrix}\implies A^2=\begin{pmatrix}a^2+bc&b(a+d)\\c(a+d)&d^2+bc\end{pmatrix}$$ por lo que $$A^2\,\,\text{diagonal}\iff b(a+d)=c(a+d)=0\implica\left\{\begin{matrix} b=c=0 \implies A\,\,\text{diagonal}\\ a+d=0\implies a=-d \end{de la matriz}\right.$$
Por lo tanto, un contraejemplo sería cualquier matriz de la forma $$A=\begin{pmatrix}-d&b\\c&d\end{pmatrix}$$ with $b \ne 0$ or $c \ne 0$ o ambos.
Es probablemente más fácil para ver la respuesta a esta pregunta si usted piensa de matrices no como matrices de números, sino como una representación lineal de los operadores. Una matriz diagonal es uno que sólo las escalas de los elementos (no necesariamente en la misma cantidad), es decir, los vectores propios son los elementales de los vectores. Así que esta pregunta puede ser pensado como "existe un operador lineal que implica interacciones entre los elementos del vector, pero cuando se hace dos veces, ¿ no?"
A partir de ahí, hay varias relativamente fácil de entender con ejemplos. Por ejemplo, el intercambio de dos elementos no es una "diagonal" del operador, pero la aplicación de dos veces es sólo la identidad, que es. La rotación de $90$ grados no es también una diagonal operador, pero la aplicación de dos veces es una rotación por $180$ grados, lo que es. Si usted trata a fin de $1$ polinomios como vectores, entonces la diferenciación no es diagonal, pero la segunda derivada es trivialmente así (ya que envía todo a cero).
Estos ejemplos han extensiones arbitraria $n$: intercambio $n$ elementos de la rotación $\dfrac{\pi}{n}$, y tomando la derivada de orden $n$ polinomios son todos los no-diagonal operadores, pero llevándolos $n$ veces es diagonal.
Me gustaría mostrar por qué la Dietrich ejemplo es la clave del problema.
De forma genérica (si elegir al azar una diagonal $D$), $A^2=D$ implica que el $A$ es diagonal. De hecho, los elementos de $D$ "siempre" distintos e $DA=AD$ implica que el $A$ es diagonal.
Ahora, suponga que $D$ no cuenta con elementos distintos. Mediante una permutación de los vectores de la base, podemos suponer que la $D=diag(\lambda_1I_{n_1},\cdots,\lambda_k I_{n_k})$ cuando la $\lambda_i$ son distintos. A continuación, $AD=DA$ implica que el $A$ es en la forma $A=diag(A_1,\cdots,A_k)$ donde $A_i^2=\lambda_i I_{n_i}$ (desde $A^2=D$). Por lo tanto, al menos más de $\mathbb{C}$, el problema de la falta de cero $D$, se reduce (o equivalente) para encontrar un no-diagonal de la matriz s.t. $A^2=I$ al $n\geq 2$. Dietrich hizo por $n=2$;$n>2$, basta con añadir "unos" en la diagonal.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.