[EDIT] Acabo de descubrir el libro de Peter McCullagh, Métodos tensoriales en estadística .
Los tensores presentan propiedades de interés en la identificación de mezclas desconocidas en una señal (o una imagen), especialmente en torno a la noción de tensor poliédrico canónico (CP) ver, por ejemplo Tensores: una breve introducción P. Comon, 2014. El campo se conoce con el nombre de "separación ciega de fuentes (BSS)":
Las descomposiciones tensoriales son el núcleo de muchas separaciones ciegas de fuentes (BSS), ya sea de forma explícita o implícita. En particular, el descomposición tensorial canónica poliádica (CP) desempeña un papel fundamental en identificación de mezclas indeterminadas. A pesar de algunas similitudes, la CP y la descomposición del valor singular (SVD) son bastante diferentes. Más En general, los tensores y las matrices tienen propiedades diferentes, como se en esta breve introducción.
Recientemente se han obtenido algunos resultados de unicidad para los tensores de tercer orden: Sobre la unicidad de la descomposición poliádica canónica de los tensores de tercer orden ( parte 1 , parte 2 ), I. Domanov y otros. , 2013.
Las descomposiciones tensoriales suelen estar relacionadas con las descomposiciones dispersas, por ejemplo, imponiendo una estructura a los factores de descomposición (ortogonalidad, Vandermonde, Hankel), y un rango bajo, para adaptarse a la no unicidad.
Con una necesidad creciente de análisis de datos incompletos y de determinación de mediciones complejas a partir de matrices de sensores, los tensores se utilizan cada vez más para completar matrices, analizar variables latentes y separar fuentes.
Nota adicional: aparentemente, la descomposición poliádica canónica también es equivalente a la descomposición de Waring de un polinomio homogéneo como una suma de potencias de formas lineales, con aplicaciones en la identificación de sistemas (estructurados en bloques, paralelos Wiener-Hammerstein o modelos no lineales de espacio de estado).
33 votos
Parece que la única característica que los "tensores de big data" comparten con la definición matemática habitual es que son matrices multidimensionales. Así que yo diría que los tensores de big data son una forma comercializable de decir "matriz multidimensional", porque dudo mucho que a la gente del aprendizaje automático le importen las simetrías o las leyes de transformación de las que gozan los tensores habituales de las matemáticas y la física, especialmente su utilidad para formar ecuaciones sin coordenadas.
2 votos
@AlexR. sin invariancia a las transformaciones no hay tensores
0 votos
@Aksakal No puedo decir si estás o no de acuerdo con Alex R. ¿Estás de acuerdo en que, como sugiere Alex R., la palabra "tensor" se utiliza a menudo de forma incorrecta y que "matriz multidimensional" sería normalmente un término más apropiado (en los artículos de aprendizaje automático)?
3 votos
Poniéndome mi sombrero matemático puedo decir que no hay ninguna simetría intrínseca en un tensor matemático. Además, son otra forma de decir "matriz multidimensional". Se podría votar a favor de usar la palabra tensor en lugar de usar la frase matriz multidimensional simplemente por razones de simplicidad. En particular, si V es un espacio vectorial n - dimensional, se puede identificar $V \otimes V$ con matrices de n por n.
1 votos
@aginensky, no soy matemático, pero en física los tensores son diferentes a los array, tienen ciertas restricciones que los array no tienen. Algunos tensores se pueden representar como arrays, y las operaciones son similares, pero hay simetrías subyacentes en los tensores. Por ejemplo, en la mecánica de tensiones su tensor debe ser invariante al cambio del sistema de coordenadas. Sin estas restricciones no tiene sentido usar tensores en física.
2 votos
@Aksakal Ciertamente estoy algo familiarizado con el uso de tensores en física. Mi punto sería que las simetrías en los tensores de la física provienen de la simetría de la física, no algo esencial en la defn de tensor.
1 votos
@aginensky Diciendo que $V$ es un "espacio vectorial" ya asume las propiedades de transformación de las que hablan Alex y Aksakal. Piensa en una matriz 3D típica de ML, por ejemplo, un conjunto de 1000 fotogramas de vídeo de 600x400. ¿En qué sentido es eso un "tensor"? Claro, si $V$ , $W$ y $U$ son espacios vectoriales de 1000, 600 y 400 dimensiones, entonces un elemento de $V\otimes W \otimes U$ en un determinado sistema de coordenadas puede representarse con la misma cantidad de números. ¿Pero tiene sentido hablar de píxeles verticales/horizontales como espacios vectoriales? Quizá sí, pero no es obvio.
1 votos
@ amoeba- Voy a hacer un comentario más, siéntase libre de responder y tener la última palabra. La definición de un espacio vectorial no menciona las simetrías. Como muchos objetos matemáticos, tiene simetrías y se pueden estudiar. Sin embargo, no forman parte de la definición. Por otra parte, una base no forma parte de la definición de un espacio vectorial. Así, por ejemplo, se puede distinguir entre una transformación lineal y una matriz. Esta última es una realización de una transformación lineal con respecto a una base específica. Además, no siempre está claro que la base "natural" sea la correcta. Por ejemplo, consideremos la pca.
0 votos
@amoeba, no he leído los artículos sobre tensores y fotogramas de vídeo. Sin embargo, si estamos viendo dos fotogramas subsiguientes de los mismos objetos grabados con la cámara, podría argumentar que aunque los contenidos de los fotogramas son ciertamente diferentes, representan el mismo objeto, por lo que tiene que haber algunas condiciones de invariancia en los contenidos de los archivos. Aunque no estoy seguro de si son relaciones tensoriales.
3 votos
@aginensky Si un tensor no fuera más que una matriz multidimensional, ¿por qué las definiciones de los tensores que se encuentran en los libros de texto de matemáticas parecen tan complicadas? De Wikipedia: "Los números de la matriz multidimensional se conocen como los componentes escalares del tensor... Al igual que las componentes de un vector cambian cuando cambiamos la base del espacio vectorial, las componentes de un tensor también cambian bajo dicha transformación. Cada tensor viene equipado con una ley de transformación que detalla cómo responden las componentes del tensor a un cambio de base." En matemáticas, un tensor no es sólo una matriz.
0 votos
@amoeba, he actualizado mi respuesta con un ejemplo para mostrar lo que difiere un tensor
5 votos
Sólo algunas reflexiones generales sobre este debate: Creo que, al igual que con los vectores y las matrices, la aplicación real se convierte a menudo en una instanciación muy simplificada de una teoría mucho más rica. Estoy leyendo este documento con más profundidad: epubs.siam.org/doi/abs/10.1137/07070111X?journalCode=siread y una cosa que me está impresionando mucho es que las herramientas de "representación" de las matrices (descomposiciones de valores propios y valores singulares) tienen interesantes generalizaciones en órdenes superiores. Estoy seguro de que hay muchas más propiedades bonitas también, más allá de ser un bonito contenedor para más índices. :)
0 votos
(PARA SU INFORMACIÓN: El significado de los tensores en la comunidad de redes neuronales )
0 votos
@aginensky "las simetrías en los tensores de la física provienen de simetrías en la física, no de algo esencial en la definición del tensor" - esto es completamente falso en cuanto a las propiedades de transformación de las que gozan los tensores con respecto a una base. Ese es un ingrediente clave en la matemáticas definición de un tensor, independiente de cualquier aplicación física. Al igual que una matriz representa un mapa lineal, una matriz multidimensional puede representan un tensor, pero no es el propio tensor.
0 votos
@silvascientist - por favor, lee "La irracional eficacia de las matemáticas en la física". Si después de eso sigues en la escuela Potter Stewart de definición de tensores, me parece bien. Permíteme sugerir que no desconozco las propiedades matemáticas de los tensores matemáticos.
1 votos
@aginensky "la escuela Potter Stewart de definición de tensores" - ¿qué, que un tensor se define como una cosa que se transforma según las reglas de los tensores? Difícilmente. Hay varias formas muy precisas de definir los tensores, todas ellas dando lugar a nociones equivalentes, pero probablemente la definición más sencilla con la que yo me quedaría es que un tensor es simplemente una función escalar multilineal de varios argumentos en el espacio vectorial y el espacio dual. Dada una base, podemos representar el tensor mediante una matriz multidimensional, que puede expresar la acción del tensor por contracción con el/los vectores.
2 votos
@aginensky La cuestión es que, en ausencia de las propiedades especiales que se esperan de un tensor, una matriz multidimensional es realmente sólo una matriz multidimensional.
0 votos
@AlexR. Estoy de acuerdo en que los tensores en TensorFlow o marcos similares son matrices multidimensionales. no poseen la invariancia de transformación de los tensores, al menos directamente. al mismo tiempo, indirectamente deben "soportar" la invariancia en el sentido débilmente amplio: La IA debe ser capaz de reconocer la letra en la imagen independientemente del ángulo y la orientación del cuadro. sin embargo, yo diría que esta propiedad sólo la mantiene el conjunto, no el "tensor" que se pasa entre los vértices del TensorFlow, que es sólo un array
0 votos
@silvascientist, yo argumentaría que los tensores están hechos para tener estas características de invariancia porque fueron utilizados en la física. así que, sí, los tensores como los definimos tienen la inavarince incluso fuera del contexto físico, pero es por el diseño que vino de las aplicaciones de la física