De forma más general, se pueden formar productos tensoriales $V_1\otimes \cdots \otimes V_k$ de un número arbitrario de espacios vectoriales, y un tensor se refiere a un elemento de uno de estos espacios, no sólo el caso $k=2$ .
Si $k=1$ entonces obviamente un tensor es lo mismo que un vector en $V_k$ .
Scott Carter explicó cómo los tensores para $k=2$ (es decir, tensores de rango 2) corresponden a matrices. He aquí otro punto de vista sobre lo mismo. Si $W^*$ es el espacio dual de $W$ (es decir, el espacio vectorial de las funciones lineales de $W$ al campo base) entonces $V\otimes W^*$ puede identificarse con $L(W,V)$ el espacio de los mapas lineales de $W$ a $V$ , estableciendo $(v\otimes f)(w) = f(w) v$ , para $v\in V$ , $f\in W^*$ y $w\in W$ . (Estoy asumiendo que todos los espacios vectoriales son de dimensión finita para simplificar; también hay que trabajar para demostrar que esta identificación está realmente bien definida). Por supuesto, dadas las bases de $W$ y $V$ , $L(W,V)$ también puede identificarse con un espacio de matrices.
De manera similar, $V^* \otimes V^*$ se identifica con los mapas bilineales en $V$ .
Iba a escribir algo sobre la multiplicación de tensores, pero como Johannes Hahn acaba de escribir una respuesta sobre eso, te remitiré allí.