28 votos

Si $A^2 = I$ (Matriz de identidad) entonces $A = \pm I$

Estoy estudiando álgebra lineal y uno de los ejercicios de autoaprendizaje tiene una serie de preguntas de verdadero o falso. Una de las preguntas es la siguiente:

Si $A^2 = I$ (Matriz de identidad), entonces $A = \pm I$ ?

Estoy bastante seguro de que es cierto, pero la respuesta dice que es falso. ¿Cómo puede ser falso (tal vez sea un error tipográfico del libro)?

35 votos

Pruebe $$ A = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}. $$

2 votos

Me gustaría señalar que es true si está trabajando con $1$ -por- $1$ matrices (sobre $\mathbb C$ o cualquier otro dominio integral). Pero para $n \geq 2$ el anillo de $n$ -por- $n$ sobre cualquier anillo no trivial no es un dominio integral: esto significa que $(A+I)(A-I) = 0$ no implica necesariamente que $A + I = 0 $ ou $A - I = 0$ .

0 votos

43voto

Roy Malka Puntos 1

Un contraejemplo sencillo es $$A = \begin{bmatrix} 1 & 0 \\ 0 & -1 \end{bmatrix} $$ Tenemos $A \neq \pm I$ pero $A^{2} = I$ .

20voto

paul Puntos 416

En dimensión $\geq 2$ tomar la matriz que intercambia dos vectores de base ("una transposición")

0 votos

Si desea intercambiar los vectores de base (estándar) $e_{i}$ y $e_{j}$ ( $1 \leq i,j \leq n$ ), utilice la matriz $A = [m_{ij}]$ con $m_{kk} = 1, k\neq i,j$ , $m_{ij} = m_{ji} = 1$ y $m_{kl} = 0$ para todos los demás valores de $k$ y $l$ . Por ejemplo, si desea $e_2$ y $e_3$ exhanged in $\mathbb{R}^{3}$ Toma $$A = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 1 & 0 \end{bmatrix}$$ Es evidente que una matriz de este tipo siempre satisface $A^2 = I$ ya que aplicarlo dos veces siempre te devuelve al punto de partida.

0 votos

Gracias @Martin Wanvik, una explicación bastante clara.

15voto

flojdek Puntos 12

Lo sé. $2·\mathbb C^2$ muchos contraejemplos, a saber

$$A=c_1\begin{pmatrix} 0&1\\ 1&0 \end{pmatrix}+c_2\begin{pmatrix} 1&0\\ 0&-1 \end{pmatrix}\pm\sqrt{c_1^2+c_2^2\pm1}\begin{pmatrix} 0&-1\\ 1&0 \end{pmatrix},$$

véase Matrices de Pauli $\sigma_i$ .

Todas estas matrices pueden escribirse como $A=\vec e· \vec \sigma$ donde $\vec e^2=\pm1$ .

7voto

user20998 Puntos 41

La siguiente matriz es un conterejemplo $ A = \left( {\begin{array}{cc} -1 & 0 \\ 0 & 1 \\ \end{array} } \right) $

7voto

Hurkyl Puntos 57397

La "mayoría" (léase: diagonalizables) de las matrices pueden verse simplemente como una lista de números -sus valores propios- en la base correcta. Cuando se hace aritmética sólo con esta matriz (o con otras matrices que diagonalizan en la misma base), sólo se hace aritmética con los valores propios.

Por lo tanto, para encontrar soluciones diagonalizables a $A^2 = I$ basta con escribir una matriz cuyos valores propios satisfagan $\lambda^2 = 1$ -- y cualquier tal matriz servirá.

Pensar en las matrices de este modo, como una lista de números independientes, facilita la resolución de problemas como éste.

1 votos

Toda matriz que cumpla $A^2=I$ es diagonalizable, porque o bien es $\pm I$ o su polinomio mínimo es $(x-1)(x+1)$ . La solución general se obtiene tomando todas las matrices diagonales con entradas $\pm 1$ en la diagonal y conjugando por matrices invertibles.

2 votos

Jonas Meyer, esto sólo es cierto si $char F \ne 2$ . En caso contrario, existen tales matrices que no son diagonalizables,

1 votos

@Jonas: Es un buen punto para mencionar como apéndice, pero tratar adecuadamente matrices no diagonalizables de esta manera es algo más sofisticado. La única razón por la que mencioné la palabra fue para no inducir a Randolf a pensar que este método funciona (sin modificar) para todas las matrices; por ejemplo, que el argumento que di no es suficiente para decirnos que esta (¡o cualquier!) ecuación sólo tiene soluciones diagonalizables.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X