Respuestas
¿Demasiados anuncios?Si multiplicas el dos$3 \times 3$ de las matrices juntas, las entradas son el producto de punto de las primeras filas con las columnas del segundo. Para que el producto escalar sea cero, las filas / columnas deben ser perpendiculares. Por lo tanto, busque una matriz donde cada columna sea perpendicular a cada fila (use cero filas y columnas para facilitar las cosas).
Deje $T: \mathbb{R}^3 \rightarrow \mathbb{R}^3$ sea una transformación lineal de satisfacciones $T^2 = 0$.
Primero de todo, veamos que el núcleo de $T$ tiene dimensión al menos 2. Obviamente el kernel no puede ser trivial, porque eso significaría $T$ es un isomorfismo. Supongamos que el kernel tiene dimensión 1, generado por un vector $v \in \mathbb{R}^3$. Podemos completar esta a una base $\{ v, v_1, v_2 \}$. Desde $T^2 = 0$, $T(v_1) = \lambda_1 v$ y $T(v_2) = \lambda_2 v$ algunos $\lambda_1, \lambda_2 \in \mathbb{R} \setminus \{0\}$. El problema es que $T(v_1-\frac{\lambda_1}{\lambda_2}v_2) = 0$ como bueno, aunque $v_1-\frac{\lambda_1}{\lambda_2}v_2$ no está en el kernel! De modo que el núcleo tiene dimensión al menos 2.
Si la dimensión del núcleo es 3, entonces la matriz de $T$ en cualquier base es la matriz cero.
Si la dimensión del núcleo es 2, entonces las matrices para $T$ son todos similares a una matriz, la cual es cero en todas partes excepto por una 1 en la esquina superior derecha.
¿Por qué es esto cierto? Dado que el núcleo tiene dimensión 2, podemos encontrar un vector $w$ que no está en el kernel. Sin embargo, $T(w)$ está en el kernel. Ahora coger otro vector $u$ en el núcleo, que es linealmente independientes de a $T(w)$. Con respecto a la base $\{ T(w), u, w \}$, la matriz de $T$ es el especial de la matriz que hemos señalado.