14 votos

¿Por qué son desfase-simétrica matrices de interés?

Actualmente estoy siguiendo un curso lineal álgebra (temas incluyen variedades, eliminación, espacios lineales, grassmannians etc.). Especialmente en los ejercicios que trabajar mucho con los giros de matrices simétricas, sin embargo, yo todavía no entiendo por qué son de tal importancia.

Así que mi pregunta es: ¿Cómo skew-matrices simétricas se relacionen con los temas mencionados anteriormente, y además, ¿dónde más en matemáticas estaríamos interesados en ellos y por qué?

13voto

Peter Puntos 46

No sé cuánto conocimiento tiene, tal vez todo esto es conocido a usted y usted está buscando algo más, pero es la primera cosa que viene a mi mente. He probado la frase de la misma instrucción en diferentes maneras.

La Mentira álgebra de sesgar-matrices simétricas es la Mentira de álgebra correspondiente a la Mentira de grupo de matrices ortogonales. En otras palabras, el espacio de sesgar las matrices es el espacio de la tangente a la identidad de la variedad de matrices ortogonales. El espacio de sesgar las matrices pueden, en cierto sentido, ser pensado como la infinitesimal versión de transformaciones ortogonales. No tengo tiempo para entrar en por qué esto es útil en cualquier detalle, pero en muchos casos se encuentran álgebras son mucho más fáciles de manejar y todavía le dan una gran cantidad de información sobre el grupo correspondiente.

Una parte de todo esto es la siguiente observación. Si $A$ es un sesgo de la matriz, a continuación, su exponencial, $\exp(A)$, es una matriz ortogonal.

Hay muchos libros y notas de la conferencia disponible en la Mentira grupos y álgebras. Algunas fuentes se pueden encontrar en las respuestas a esta pregunta.

7voto

littleO Puntos 12894

Este no es el área de las matemáticas que le interesa, pero he aquí un ejemplo que bien podría escribir. En optimización convexa estamos interesados en la forma canónica del problema $$ \text{minimizar} \quad f(x) + g(Ax) $$ donde $f$ $g$ cerrado convexo funciones que le son propias y $A$ es un auténtico $m \times n$ matriz. La optimización de la variable es $x \in \mathbb R^n$. De esta forma canónica del problema es el punto de partida para la Fenchel-Rockafellar enfoque de la dualidad.

El KKT condiciones de optimalidad para este problema de optimización puede ser escrito como $$ \etiqueta{$\spadesuit$} 0 \en \begin{bmatrix} 0 & A^T \\ -A & 0 \end{bmatrix} \begin{bmatrix} x \\ z \end{bmatrix} + \begin{bmatrix} \partial f(x) \\ \partial g^*(z) \end{bmatrix}, $$ donde $g^*$ es convexo de la conjugada de $g$ $\partial f(x)$ es el subdifferential de $f$ $x$ $\partial g^*(z)$ es el subdifferential de $g^*$$z$. La notación $\begin{bmatrix} \partial f(x) \\ \partial g^*(z) \end{bmatrix}$ denota el producto cartesiano $\partial f(x) \times \partial g^*(z)$.

La condición de $(\spadesuit)$ es un gran ejemplo de un "monotono inclusión problema", que es un tipo de problema que se generaliza convexa de problemas de optimización. El subdifferential $\partial f$ es el principal ejemplo de un "monotono operador", pero el operador $$ \begin{bmatrix} x \\ z \end{bmatrix} \mapsto \begin{bmatrix} 0 & A^T \\ -A & 0 \end{bmatrix}\begin{bmatrix} x \\ z \end{bmatrix} $$ es un buen ejemplo de un tono monótono operador que es no la subdifferential de una función convexa.

4voto

Jason Sharer Puntos 6

Natural numérico discretizations de impar-derivadas de orden son desfase-simétrica. Así sesgar-matrices simétricas son importantes en el estudio de los métodos numéricos para ecuaciones en derivadas parciales hiperbólicas. También están relacionadas con las propiedades de las ecuaciones en derivadas parciales, ya que una extraña orden derivado puede ser visto como un infinito-dimensional skew-simétrica operador.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X