15 votos

Hay un problema fundamental con la ampliación de la matriz de conceptos a los tensores?

Estamos familiarizados con la teoría de matrices, más específicamente su eigen-teoremas y asociada a la descomposición. De hecho, la descomposición de valor singular generaliza el teorema espectral para matrices arbitrarias, no sólo de la plaza. Ahora sólo parece natural para extender esta idea de matriz de 2 dimensiones de los números de las dimensiones superiores, es decir, los tensores. Pero tan pronto como hacemos esto, todo se rompe.

Por ejemplo, incluso el concepto de rango de una matriz (que todos estamos de acuerdo en que ser mínimo de la columna del rango o de la fila de rango de una matriz) parece ser confundirse cuando se trata de los tensores. La página de la Wikipedia, parece que el uso de grado, orden y clasificación de un tensor como sinónimos (es comprensible debido a la diferente terminología que se utiliza en diferentes campos, pero es algo molesto, sin embargo).

"La orden (también el grado o rango) de un tensor es la dimensionalidad de la matriz necesaria para que la represente, o lo que es equivalente, el número de índices necesarios para la etiqueta de un componente de la matriz."

También por ejemplo, el muy familiarizado concepto de valores propios y vectores también vuela por la ventana (aunque las personas han definido ellos para súper simétricas tensores). Así que mi pregunta es esta:

¿Cuál es la razón fundamental por la que los "buenos" teoremas tenemos en la matriz en caso de no extender para el caso de los tensores?

No puedo pensar en un par:

  • Los tensores exhiben el fenómeno de la clasificación de salto, así como el campo de la dependencia; lo cual implicaría las reglas habituales de análisis de la necesidad de ser re-examinado al tratar con ellos.
  • Una gran clase de las matrices de los grupos, de las herramientas de álgebra abstracta están disponibles para tratar con ellos.
  • Las Matrices pueden ser vistos como operadores de un espacio a otro de forma inequívoca, mientras que la visualización de un tensor como un operador entre espacios pueden llegar a confundir muy rápidamente.

Sé que hay extensiones de enfermedad vesicular porcina para los tensores, por ejemplo Tucker descomposición, HOSVD, etc; así que no estoy afirmando que no se puede hacer. También entiendo (un poco) de que los matemáticos prefieren estudiar los tensores de manera abstracta o el uso de la geometría diferencial y formas. Yo sólo soy curioso en cuanto a por qué los resultados de la generalización de los conceptos que forman la matriz caso son muchos; ¿cuál es la causa subyacente de una falta de marco unificador. Las razones anteriores parecen válidas las barricadas, pero no lo hacen alusión a algo más fundamental?

4voto

Joel Puntos 101

Yo diría que el punto principal es que una matriz es (entre otras cosas) un lineal mapa , mientras que un tensor es no.

Todos los de la matriz de descomposición puede ser visto como la elección particular de las bases en el dominio y el codominio de la lineal mapa:

  • Por ejemplo descomposición LU puede ser escrito como $$ A = LU = \tilde L \begin{pmatrix}I_r & 0\\0 & 0\end{pmatrix}\tilde U $$ donde $r$ es el rango y $\tilde L$ $\tilde U$ son leves modifaction original de la descomposición LU, que pasan a ser invertible, es decir, $\tilde U$ proviene de una base en el dominio y $\tilde L$ a partir de una base en el codominio.
  • SVD es inherentemente una selección de bases de $A = U\Sigma V^T$ con ortonormales $U$ und $V$...
  • Mismo para la descomposición espectral de simétrica $A$ (un caso especial de la SVD).

Ok, una matriz es también una forma bilineal y un tensor es una forma multilineal y, en realidad, esta similitud puede ser utilizada para definir los vectores propios de los tensores, pero, me gustaría agrue que el punto de vista de que una matriz representa un lineal mapa es más fundamental. Hay varias matrices de $A$ que representan la misma forma bilineal (por ejemplo,$A$, $A^T$ y $(A+A^T)/2$ todos representan la misma forma bilineal), mientras que el lineal mapa es único (hasta la elección de las bases).

Tengo la impresión de que estas nociones matrices que dependen de la vista como formas bilineales generalizar mucho más fácil para los tensores (multilineal mapas) como las nociones que se basan en la vista, en forma lineal mapa.

2voto

janmarqz Puntos 4027

Teniendo en cuenta que para un espacio vectorial $V$ hay otro vectorspace $$V^*=\{V\to\Bbb F:\mbox{which are linear}\}$$ apodado el doble , a continuación, los tensores son:

1) los tensores covariantes que se multilineal mapas $$V\times...\times V\to\Bbb F,$$ 2) tensor contravariante, multilineal mapas $$V^*\times...\times V^*\to\Bbb F$$ y 3) mixto tensores como multilineal mapas $$V\times...\times V\times V^*\times...\times V^*\to\Bbb F.$$

En cada etapa uno está obligado a utilizar no sólo bi-indexada cantidades como $$A_{ij},\ B_i{}^j,\ C^i{}_j,\ D^{ij}$$ identificado como las componentes de un tensor y que corresponden a las entradas de las matrices. Cada uno de aquellos para los cuatro tipos posibles $$V\times V\to\Bbb F,$$ $$V\times V^*\to\Bbb F,$$ $$V^*\times V\to\Bbb F,$$ $$V^*\times V^*\to\Bbb F,$$ de bilineal mapas.

Pero hay también tri-indexada componentes como $$T^{ijk}, U^{ij}{}_k,...etc$$ cuando usted comienza a tener una generalización de las matrices.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X