De hecho, hay algunas "confusiones" que algunas personas hacen al hablar sobre tensores. Esto sucede principalmente en Física donde los tensores suelen describirse como "objetos con componentes que se transforman de la manera correcta". Para comprender realmente este tema, primero recordemos que esos objetos pertenecen al ámbito del álgebra lineal. Aunque se utilizan mucho en muchas ramas de las matemáticas, el área de las matemáticas dedicada al estudio sistemático de esos objetos es realmente el álgebra lineal.
Así que comencemos con dos espacios vectoriales $V,W$ sobre algún campo de escalares $\Bbb F$. Ahora, sea $T : V \to W$ una transformación lineal. Voy a suponer que sabes que podemos asociar una matriz con $T$. Ahora, podrías decir: ¡así que las transformaciones lineales y las matrices son lo mismo! Y si dices eso, estarías equivocado. La cuestión es: uno puede asociar una matriz con $T$ solo cuando se fija una base de $V$ y una base de $W$. En ese caso obtendremos $T$ representado en esas bases, pero si no introducimos esas bases, $T$ seguirá siendo $T$ y las matrices seguirán siendo matrices (arreglos rectangulares de números, o cualquier otra definición que prefieras).
Ahora, la construcción de tensores es mucho más elaborada que simplemente decir: "toma un conjunto de números, etiquétalos por componentes, deja que se transformen de la manera correcta, obtienes un tensor". En realidad, esta "definición" es una consecuencia de la definición real. De hecho, la definición real de un tensor tiene como objetivo introducir lo que llamamos "Propiedad Universal".
La cuestión es que si tenemos una colección de $p$ espacios vectoriales $V_i$ y otro espacio vectorial $W$ podemos formar funciones de varias variables $f: V_1\times \cdots \times V_p \to W$. Una función como esta se llamará multilineal si es lineal en cada argumento con los demás fijos. Ahora, dado que sabemos cómo estudiar transformaciones lineales, nos preguntamos: ¿existe una construcción de un espacio vectorial $S$ y una única aplicación multilineal $T : V_1 \times \cdots \times V_p \to S$ tal que $f = g \circ T$ para algún $g : S \to W$ lineal y tal que esto se cumple para todos los $f$? Si esto siempre es posible, reduciremos el estudio de aplicaciones multilineales al estudio de aplicaciones lineales.
La parte feliz de la historia es que esto siempre es posible, la construcción está bien definida y $S$ se denota $V_1 \otimes \cdots \otimes V_p$ y se llama el producto tensorial de los espacios vectoriales y la aplicación $T$ es el producto tensorial de los vectores. Un elemento $t \in S$ se llama un tensor. Ahora es posible probar que si $V_i$ tiene dimensión $n_i$ entonces se cumple la siguiente relación:
$$\dim(V_1\otimes \cdots \otimes V_p)=\prod_{i=1}^p n_i$$
Esto significa que $S$ tiene una base con $\prod_{i=1}^p n_i$ elementos. En ese caso, como sabemos de álgebra lineal básica, podemos asociar a cada $t \in S$ sus componentes en alguna base. Ahora, esas componentes son lo que la gente suele llamar "el tensor". De hecho, cuando en Física ves a la gente diciendo: "considera el tensor $T^{\alpha \beta}$" lo que realmente están diciendo es "considera el tensor $T$ cuyas componentes en alguna base entendida por contexto son $T^{\alpha \beta}$".
Entonces, si consideramos dos espacios vectoriales $V_1$ y $V_2$ con dimensiones respectivamente $n$ y $m$, por el resultado que he mencionado $\dim(V_1 \otimes V_2)=nm$, por lo tanto para cada tensor $t \in V_1 \otimes V_2$ se puede asociar un conjunto de $nm$ escalares (las componentes de $t$), y evidentemente se pueden introducir esos valores en una matriz $M(t)$ y así hay una correspondencia de tensores de rango $2$ con matrices.
Sin embargo, exactamente como en el caso de las transformaciones lineales, esta correspondencia solo es posible cuando se han seleccionado bases en los espacios vectoriales con los que estamos tratando. Finalmente, con cada tensor también es posible asociar una aplicación multilineal. Por lo tanto, los tensores pueden entenderse en su forma completamente abstracta y algebraica como elementos del producto tensorial de espacios vectoriales, y también pueden entenderse como aplicaciones multilineales (esto es mejor para la intuición) y podemos asociar matrices a esos.
Así que después de todo este problema con el álgebra lineal, la respuesta corta a tu pregunta es: las matrices son matrices, los tensores de rango 2 son tensores de rango 2, sin embargo hay una correspondencia entre ellos siempre que se fije una base en el espacio de tensores.
Mi sugerencia es que leas el capítulo $4$ de álgebra multilineal de Kostrikin en "Álgebra Lineal y Geometría". Este libro es difícil, pero es bueno para realmente entender las ideas. Además, puedes aprender sobre tensores (construcciones en términos de aplicaciones multilineales) en buenos libros de Análisis multivariable como "Cálculo en variedades" de Michael Spivak o "Análisis en variedades" de James Munkres.
46 votos
Continuando con tu analogía, una matriz es simplemente una tabla bidimensional para organizar información y un tensor es simplemente su generalización. Puedes pensar en un tensor como una forma de organizar información en dimensiones más altas. Así que una matriz (5x5 por ejemplo) es un tensor de rango 2. Y un tensor de rango 3 sería una "matriz 3D" como una matriz de 5x5x5.
2 votos
Pensé que un tensor de rango n es una función multi-lineal que toma n vectores y devuelve un vector del mismo espacio vectorial?
9 votos
Un punto de confusión es que en aprendizaje automático, a menudo las personas usan el término "tensor" cuando realmente quieren decir simplemente "matriz multidimensional". Discrepo en que un tensor de rango 3 sería una "matriz 3D", pero es cierto que no es raro escuchar la palabra "tensor" usada de esta manera. stats.stackexchange.com/questions/198061/…
1 votos
Creo que este video es mucho más útil que cualquiera de las respuestas. Si todavía estás confundido, mira el video desde el principio: youtu.be/f5liqUk0ZTw?t=7m27s
0 votos
@Xitcod13: Ese video no responde la pregunta sobre la diferencia entre una matriz y un tensor. De hecho, ese video ni siquiera menciona explícitamente matrices en absoluto.
0 votos
@celtschk bueno, una vez que entiendes el tensor y entiendes qué es una matriz, es bastante simple. Un tensor es solo una generalización de una matriz. Entonces, un escalar puede ser un tensor pero no puede ser una matriz.
0 votos
@Xitcod13: ¿Leíste mi respuesta? Un tensor de rango 2 y una matriz no son lo mismo.
0 votos
@celtschk Ok, así que veo de dónde vienes. Solo dije que el video es mucho más útil porque pienso en la persona promedio que viene a buscar la respuesta. Estoy de acuerdo en que tu respuesta es más precisa, pero la gente viene aquí de todas partes de Internet y tu respuesta será demasiado complicada.