194 votos

¿Por qué esta repentina fascinación por los tensores?

Últimamente me he dado cuenta de que mucha gente está desarrollando equivalentes tensoriales de muchos métodos (factorización tensorial, núcleos tensoriales, tensores para el modelado de temas, etc.) Me pregunto, ¿por qué el mundo está de repente fascinado con los tensores? ¿Hay artículos recientes o resultados estándar que sean particularmente sorprendentes, que hayan provocado esto? ¿Es mucho más barato computacionalmente de lo que se sospechaba?

No estoy siendo simplista, estoy sinceramente interesado, y si hay alguna indicación de artículos sobre esto, me encantaría leerlos.

33 votos

Parece que la única característica que los "tensores de big data" comparten con la definición matemática habitual es que son matrices multidimensionales. Así que yo diría que los tensores de big data son una forma comercializable de decir "matriz multidimensional", porque dudo mucho que a la gente del aprendizaje automático le importen las simetrías o las leyes de transformación de las que gozan los tensores habituales de las matemáticas y la física, especialmente su utilidad para formar ecuaciones sin coordenadas.

2 votos

@AlexR. sin invariancia a las transformaciones no hay tensores

0 votos

@Aksakal No puedo decir si estás o no de acuerdo con Alex R. ¿Estás de acuerdo en que, como sugiere Alex R., la palabra "tensor" se utiliza a menudo de forma incorrecta y que "matriz multidimensional" sería normalmente un término más apropiado (en los artículos de aprendizaje automático)?

7voto

Mark L. Stone Puntos 2037

Este es un extracto ligeramente editado (para el contexto) de Factorización tensorial no negativa con aplicaciones a la estadística y la visión por ordenador, A. Shashua y T. Hazan que llega al corazón de por qué al menos algunas personas están fascinadas con los tensores.

Cualquier problema de n dimensiones puede representarse en forma bidimensional concatenando las dimensiones. Así, por ejemplo, el problema de encontrar una descomposición no negativa de bajo rango de un conjunto de imágenes es una 3-NTF (Factorización Tensorial No Negativa), con las imágenes formando las rebanadas de de un cubo 3D, pero también puede representarse como un problema de NMF (Factorización Matricial No Negativa) (Factorización Matricial No Negativa) vectorizando las imágenes (las imágenes forman columnas de una matriz).

Hay dos razones por las que una representación matricial de una colección de imágenes no sería apropiada:

  1. La redundancia espacial (píxeles, no necesariamente vecinos, que tienen valores similares) se pierde en la vectorización, por lo que cabría esperar un factorización menos eficiente, y
  2. Una descomposición NMF no es única, por lo tanto, incluso si existe un modelo generativo (de partes locales) el NMF no se movería necesariamente en esa dirección, lo que ha sido verificado empíricamente por Chu, M, Diele, F., Plemmons, R., & Ragni, S. "Optimality, computation and interpretation of nonnegative matrix factorizations" SIAM Journal on Matrix Analysis, 2004. Por ejemplo, las partes invariantes en el conjunto de imágenes tenderían a formar fantasmas en todos los factores y contaminarían el efecto de dispersión. Un NTF es casi siempre único, por lo que cabe esperar que que el esquema de la TNF se mueva hacia el modelo generativo, y específicamente no se vea influenciado por las partes invariantes.

6voto

Laurent Duval Puntos 229

[EDIT] Acabo de descubrir el libro de Peter McCullagh, Métodos tensoriales en estadística .

Los tensores presentan propiedades de interés en la identificación de mezclas desconocidas en una señal (o una imagen), especialmente en torno a la noción de tensor poliédrico canónico (CP) ver, por ejemplo Tensores: una breve introducción P. Comon, 2014. El campo se conoce con el nombre de "separación ciega de fuentes (BSS)":

Las descomposiciones tensoriales son el núcleo de muchas separaciones ciegas de fuentes (BSS), ya sea de forma explícita o implícita. En particular, el descomposición tensorial canónica poliádica (CP) desempeña un papel fundamental en identificación de mezclas indeterminadas. A pesar de algunas similitudes, la CP y la descomposición del valor singular (SVD) son bastante diferentes. Más En general, los tensores y las matrices tienen propiedades diferentes, como se en esta breve introducción.

Recientemente se han obtenido algunos resultados de unicidad para los tensores de tercer orden: Sobre la unicidad de la descomposición poliádica canónica de los tensores de tercer orden ( parte 1 , parte 2 ), I. Domanov y otros. , 2013.

Las descomposiciones tensoriales suelen estar relacionadas con las descomposiciones dispersas, por ejemplo, imponiendo una estructura a los factores de descomposición (ortogonalidad, Vandermonde, Hankel), y un rango bajo, para adaptarse a la no unicidad.

Con una necesidad creciente de análisis de datos incompletos y de determinación de mediciones complejas a partir de matrices de sensores, los tensores se utilizan cada vez más para completar matrices, analizar variables latentes y separar fuentes.

Nota adicional: aparentemente, la descomposición poliádica canónica también es equivalente a la descomposición de Waring de un polinomio homogéneo como una suma de potencias de formas lineales, con aplicaciones en la identificación de sistemas (estructurados en bloques, paralelos Wiener-Hammerstein o modelos no lineales de espacio de estado).

4voto

Oscarblablabla Puntos 26

Me permito recomendar respetuosamente mi libro: Kroonenberg, P.M. Datos multidireccionales aplicados Análisis y Smilde et al. Análisis multidireccional. Aplicaciones en las ciencias químicas (ambos de Wiley). De interés puede ser también mi artículo: Kroonenberg, P.M. (2014). Historia del análisis de componentes multidireccionales y del análisis de correspondencia de tres vías. En Blasius, J. y Greenacre, M.J. (Eds.). Visualización y verbalización de los datos (pp. 77-94). Nueva York: Chapman & Hall/CRC. ISBN 9781466589803.

Estas referencias hablan de datos multidireccionales y no de tensores, pero se refieren a la misma área de investigación.

0voto

user7285239 Puntos 1

Qué significa el término tensor significa depende del contexto en el que se utilice:

Campo

Significado

Aprendizaje automático

Matriz multidimensional (normalmente numérica) 1 2

Matemáticas

un objeto algebraico que describe una relación (multilineal) entre conjuntos de objetos algebraicos

El término de aprendizaje automático se inspira en el hecho de que en un sistema de bases/coordenadas fijas, un tensor puede expresarse como una matriz multidimensional. Sin embargo, hay representaciones alternativas Según el subcampo, con distintos grados de abstracción.


  1. Los tensores, también conocidos como matrices multidimensionales, son generalizaciones de las matrices a órdenes superiores y son útiles arquitecturas de representación de datos.

  2. Tensor

    La estructura de datos principal en los programas TensorFlow. Los Tensores son estructuras de datos de N dimensiones (donde N puede ser muy grande), normalmente escalares, vectores o matrices. Los elementos de un tensor pueden contener valores enteros, de punto flotante o de cadena.

-1voto

Moun Puntos 1

Es cierto que la gente de Machine Learning no ve los tensores con el mismo cuidado que los matemáticos y los médicos. He aquí un artículo que puede aclarar esta discrepancia: Comon P., "Tensores: una breve introducción" IEEE Sig. Proc. Magazine , 31 de mayo de 2014

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X