La primera línea : ('canónicas de identificación") significa decimos que un elemento de $T_I(GL(n,\mathbb{R}))$ puede ser considerado como un elemento de $M_n(\mathbb{R})$ y viceversa por medio de la vectorización.
Aquí un ejemplo de este canónicas de identificación para $n=2$ :
Vamos a : $Q \in T_I(GL(2,\mathbb{R})) $ , $Q= \left(
\begin{array}{c}
q_1 \\
q_2 \\
q_3 \\
q_4 \\
\end{array}
\right)$ ,
the corresponding matrix $\en M_2(\mathbb{R})$ becomes : $ \left(
\begin{array}{c , c}
q_1 & q_3 \\
q_2 & q_4 \\
\end{array}
\right)$.
Con el canónicas de identificación también podemos definir el mapa : $\Psi : T_I(GL(n,\mathbb{R})) \mapsto \mathfrak{X}(GL(n,\mathbb{R}))$ como un producto de matrices debido a un campo de vectores asigna un elemento de $GL(n,\mathbb{R})$ a un elemento de $T_P(GL(n,\mathbb{R}))$ en cada punto de $P$ :
Para hacer un campo vectorial de un vector en el $T_I$ tenemos que asignar un vector a cada elemento de a $GL(n,\mathbb{R})$.
Decidimos hacerlo por la izquierda-multiplicar' con dicho elemento de $GL(n,\mathbb{R})$ que hemos denominado"$P$ .
Así que (por $n=2$ ) en coordenadas, $P$ es de hecho tan sólo : $\left(
\begin{array}{c}
x_1 \\
x_2 \\
x_3 \\
x_4 \\
\end{array}
\right)$ or $\left(
\begin{array}{c , c}
x_1 & x_3 \\
x_2 & x_4 \\
\end{array}
\right)$.
De esta manera $\Psi \left( X \right) = PX $ se convierte en :
$ \left(
\begin{array}{c , c}
x_1 & x_3 \\
x_2 & x_4 \\
\end{array}
\right)
\left(
\begin{array}{c , c}
X_1 & X_3 \\
X_2 & X_4 \\
\end{array}
\right) = \left(
\begin{array}{c , c}
x_1X_1 + x_3X_2 & x_1X_3 + x_3X_4 \\
x_2X_1 + x_4X_2 & x_2X_3 + x_4X_4 \\
\end{array}
\right)$
O :
$\Psi \left( X \right) =\left(
\begin{array}{c , c}
x_1X_1 + x_3X_2 \\
x_2X_1 + x_4X_2 \\
x_1X_3 + x_3X_4 \\
x_2X_3 + x_4X_4 \\
\end{array}
\right)$ and $\Psi \left Y \right) =\left(
\begin{array}{c , c}
x_1Y_1 + x_3Y_2 \\
x_2Y_1 + x_4Y_2 \\
x_1Y_3 + x_3Y_4 \\
x_2Y_3 + x_4Y_4 \\
\end{array}
\right)$
Ahora de acuerdo a la sugerencia tenemos :
$[\Psi \left( X \right) ,\Psi \left( Y \right) ]= \left(\Psi \left( X \right)_{i}\frac{\partial \Psi \left( Y \right)_{j}}{\partial x_{i}}-\Psi \left( Y \right)_{i}\frac{\partial \Psi \left( X \right)_{j}}{\partial x_{i}}\right)\frac{\partial}{\partial x_{j}} $ (con convenio de sumación de Einstein ).
Trabajamos a cabo el primer componente :
$[\Psi \left( X \right) \Psi \left Y \right) ]_1= \left(\Psi \left( X \right)_{i}\frac{\partial \Psi \left Y \right)_{1}}{\partial x_{i}}-\Psi \left Y \right)_{i}\frac{\partial \Psi \left( X \right)_{1}}{\partial x_{i}}\right) =
\left(
\Psi \left( X \right)_{1}\frac{\partial \Psi \left Y \right)_{1}}{\partial x_{1}} +
\Psi \left( X \right)_{3}\frac{\partial \Psi \left Y \right)_{1}}{\partial x_{3}}
-\Psi \left Y \right)_{1}\frac{\partial \Psi \left( X \right)_{1}}{\partial x_{1}}
-\Psi \left Y \right)_{3}\frac{\partial \Psi \left( X \right)_{1}}{\partial x_{3}}\right)
=
\left(
\Psi \left( X \right)_{1}Y_1 +
\Psi \left( X \right)_{3}Y_2
-\Psi \left Y \right)_{1}X_1
-\Psi \left Y \right)_{3}X_2
\right)
=
\left(
(x_1X_1 +x_3X_2)Y_1 +
(x_1X_3 +x_3X_4)Y_2
-(x_1Y_1 +x_3Y_2)X_1
-(x_1Y_3 +x_3Y_4)de X_2
\right)
=
x_1(X_3Y_2-X_2Y_3) + x_3(X_2Y_1 -X_1Y_2) + x_3(X_4Y_2-X_2Y_4)
$
Ahora el cálculo del primer componente de $\Psi \left( [X,Y] \right)$ :
$ \Psi \left( [X,Y] \right) = \left(
\begin{array}{c , c}
x_1 & x_3 \\
x_2 & x_4 \\
\end{array}
\right)
\left(
\begin{array}{c , c}
X_1Y_1 + X_3Y_2 -Y_1X_1 - Y_3X_2 & X_1Y_3 + X_3Y_4 -Y_1X_3 - Y_3X_4 \\
X_2Y_1 + X_4Y_2 -Y_2X_1 - Y_4X_2 & X_2Y_3 + X_4Y_4 -Y_2X_3 - Y_4X_4 \\
\end{array}
\right) $
Vemos los primeros componentes (y también los otros componentes) son iguales, y la generalización de a $n > 2$ es trivial.
$\square$