La conexión es esta: una matriz se compone de los coeficientes de un tensor (1,1), pero no es un tensor de sí mismo.
Supongamos que estamos hablando de una transformación lineal $T$ $n$ dimensiones de espacio vectorial $V$.
Ahora $T$ es sin duda un tensor (tensores son, después de todo, multilineal mapas en las copias de $V$$V^\ast$, y una transformación lineal puede ser interpretado como una multilinar función de$V\times V^\ast$$\mathbb{F}$.)
Una vez que una base para $V$ es fijo, entonces se puede hablar de la matriz $A$ $T$ que está escrito en términos de la base. Lo mismo puede decirse de general multilineal de las funciones de copias de $V$$V^\ast$, que después de que usted haya fijado una base, tienes una gran matriz de la celebración de sus coeficientes.
Es importante recordar que no se puede confundir la matriz del tensor. El tensor es una base independiente de la entidad: es un tipo de función. Los componentes son sólo una representación particular de la función y los componentes dependen de una elección de la base.