19 votos

¿Cuál es el punto de ortogonal diagonalisation?

He aprendido que el proceso de ortogonal diagonalisation en un curso de álgebra estoy tomando...pero me di cuenta de que no tengo idea de cuál es el punto de lo que es.

La definición es básicamente esto: "Una matriz a es ortogonal diagonalisable si existe una matriz P que es ortogonal y D = PtAP donde D es la diagonal". No entiendo el significado de esto, aunque...¿qué tiene de especial/importante acerca de esta relación?

24voto

Lorin Hochstein Puntos 11816

Cuando se tiene una matriz de $A$ que es diagonalisable, la matriz $U$ tal que $U^{-1}AU=D$ es la diagonal es la matriz cuyas columnas son una base de vectores propios de a $A$. Para tener una base de vectores propios hace que la comprensión de $A$ mucho más fácil, y hace computaciones con $A$ fácil así.

Cuál es la base de vectores propios no hace, sin embargo, es preservar las habituales nociones de tamaño de los vectores, la distancia entre los vectores, o los ángulos entre los vectores, que vienen desde el interior/producto escalar. La norma base para $\mathbb{R}^n$ es especialmente agradable porque no es sólo una base, es una ortonormales . Bases ortonormales hacer todo tipo de cosas fáciles de calcular, tales como la forma de expresar los vectores como combinación lineal de ellos, de los mínimos cuadrados, el tamaño de los vectores, ángulos entre los vectores, etc. Por ejemplo, si usted piensa acerca de ello, es muy fácil expresar un vector como combinación lineal de los vectores en la norma; por lo general no es tan fácil de hacer en términos de algunas otras bases. Con bases ortonormales, todo lo que necesitas hacer es tomar el producto escalar en la base de los elementos para obtener los coeficientes de la transformación lineal. Muy fácil.

Así que ahora usted tiene dos nociones que hacen la vida más sencilla: una base de autovectores hace la vida más fácil en relación a la transformación lineal/base; una base ortonormales hace la vida más fácil en relación a los vectores del espacio mismo. Desafortunadamente, por lo general, usted tiene que elegir uno o el otro, y usted no puede tener ambas.

Cuando la matriz $P$ es ortogonal, entonces sus columnas no son sólo una base para $\mathbb{R}^n$, que son ortonormales . El hecho de que $A$ es ortogonalmente diagonalisable significa que, para $A$, usted no tiene que elegir! Las columnas de $P$ son tanto una base ortonormales, y una base de vectores propios de a $A$. Así que usted obtiene lo mejor de ambos mundos. Y siendo una base ortonormales, aún así mantener un buen manejo de las nociones de distancia, ángulos entre los vectores, y así sucesivamente.

6voto

Matt Dawdy Puntos 5479

La matemática es todo acerca de las relaciones de equivalencia. A menudo no estamos realmente interesados en los objetos en la nariz, estamos interesados en los objetos, algunos naturales de equivalencia de la relación. Matrices realmente definir transformaciones lineales, de modo que para hablar de transformaciones lineales utilizando matrices necesitamos especificar cuando dos matrices dar el mismo resumen transformación lineal. En el nivel de un primer curso de álgebra lineal, hay al menos dos opciones naturales, que a menudo no se distinguen.

  • Hasta el cambio de base. Esta es una opción razonable si el espacio vectorial no tiene ninguna norma natural o la parte interna del producto (por ejemplo, si se trata de un espacio de polinomios). Las mejores matrices de aquí son los que pueden ser diagonalized (por un arbitrario invertible la matriz).
  • A cambio de ortonormales . Esta es una opción razonable si el espacio vectorial tiene un producto interior / norma Euclídea, ya que usted quiere ser capaz de calcular interior de los productos en la forma más fácil posible con respecto a su base. Aquí la mejor de las matrices son los que pueden ser ortogonal diagonalized.

Uno de los más importantes ejemplos de esto último es el uso de series de Fourier, que ortogonalmente diagonalize diferenciación. Esta es una técnica importante para la resolución de ecuaciones diferenciales.


Tal vez usted también no están familiarizados con el punto de diagonalización. El punto de diagonalización es a cambio de coordenadas de modo que la transformación lineal que le interesa es tan simple como sea posible (es de lo más sencillo de la diagonal de las matrices). Que facilita el análisis, como en la serie de Fourier ejemplo anterior.

5voto

Tpofofn Puntos 2607

Las Matrices de objetos complicados. A primera vista son matrices rectangulares de números con una complicada regla de la multiplicación. Diagonalización nos ayuda a reducir la multiplicación de la matriz de operación a una secuencia de pasos simples que hacen sentido. En el caso de que usted está preguntando acerca de la diagonalización ortogonal, así que voy a limitar mis comentarios a eso. Tenga en cuenta que normalmente pensamos acerca de diagonalización como una factorización de la matriz $\mathbf A$

$$\mathbf A = \mathbf P \mathbf D \mathbf P^T$$

Sabemos que $\mathbf D$ contiene los autovalores de a $\mathbf A$ $\mathbf P$ contiene los correspondientes vectores propios. Considere la posibilidad de la multiplicación $\mathbf{y=Ax}$. Podemos realizar la multiplicación $\mathbf y = \mathbf P \mathbf D \mathbf P^T \mathbf x$ paso-por-paso de la siguiente manera:

Primero: $\mathbf x' = \mathbf P^T \mathbf x$. Este paso los proyectos de $\mathbf x$ sobre los vectores propios debido a que los vectores propios están en las filas de $\mathbf P^T$.

Segundo: $\mathbf y' = \mathbf D \mathbf x'$. Este paso se extiende el vector resultante de forma independiente en cada dirección, que corresponde a un vector propio. Esta es la clave. Una matriz es que una simple escala (en general también podemos cortante o rotación) de la operación en independiente de las direcciones (ortogonal caso sólo!) en una determinada base o de la representación.

Tercero: $\mathbf y = \mathbf P \mathbf y'$. Nos tomamos nuestro resultante se extendía de vectores linealmente combinar los vectores propios para volver a nuestro espacio original.

Así que en resumen, diagonalización nos dice que en virtud de la multiplicación de la matriz, como vector puede ser representado en una base especial en virtud de que la operación real de la matriz es una simple matriz diagonal (el más simple posible) y, a continuación, representado de nuevo en nuestro espacio original.

1voto

John Fouhy Puntos 759

Si una matriz $A$ es unitarily diagonalizable, entonces uno puede definir un "transformada de Fourier" para que $A$ es un "convolución" de la matriz.

Aquí es un ejemplo. Tenemos una familia $F$ de los subconjuntos de algunas conjunto finito $S$, es decir,$F \subset 2^S$, de tal manera que cualquiera de los dos conjuntos en $F$ está de acuerdo en algunos de coordenadas, es decir, para cualquiera de los dos $A,B \in F$, hay un elemento $x \in S$ que tampoco pertenece a los dos $A,B$ o a ninguna de las dos; llamamos a una familia $F$ acordando.

¿Qué tamaño puede tener una acordando de la familia de $F$? Claramente, se puede contener a más de la mitad de los conjuntos, ya que $A$ $S \setminus A$ no pertenecen a $F$. Por otro lado, para cualquier $x \in S$, la familia $$F = \{ A \subset S : x \in A \}$$ es un acordando de la familia que contiene exactamente la mitad de los conjuntos.

Aquí es otra prueba. Deje $F$ ser un acordando de la familia, y $f$ de su función característica. es decir, $f(A) = 1$ fib $A \in F$. Su transformada de Fourier se define por $$ \hat{f}(B) = 2^{-|S|} \sum_A f(A) (-1)^{|A \cap B|}. $$ The Fourier transform is really presenting the function $f$ in the orthonormal basis $$\chi_B(A) = (-1)^{|A\cap B|},$$ which is orthonormal with respect to the inner product $$\langle g,h \rangle = 2^{-|S|} \sum_A g(A) h(A). $$ The Fourier transform is defined so that $$f = \sum_B \hat{f}(B) \chi_B, $$ and so the formula for the transform can also be written $$\hat{f}(B) = \langle f,\chi_B \rangle;$$ esto funciona porque la base es ortonormales.

Un sencillo cálculo nos da que la $\hat{f}(\emptyset) = |F|/2^{|S|}$. Por otra parte, $$\langle f,f \rangle = \sum_{B,C} \langle \hat{f}(B) \chi_B, \hat{f}(C) \chi_C \rangle = \sum_B \hat{f}(B)^2,$$ again from orthonormality. Note that $$\langle f,f\rangle = \langle f^2, 1 \rangle = \langle f,\chi_\emptyset \rangle = \hat{f}(\emptyset),$$ where we used the fact that $f$ is $\{0,1\}$-valorado.

Considere ahora el operador $X$ que corresponde a la complementación, es decir,$$Xe_A = e_{S \setminus A},$$ where $ e_A$ is the vector which is $1$ only for the set $Un$. Another way to look at the operator $X$ is that it is convolution with $S$, where the group operation is symmetric difference (i.e. $\triángulo S = S \setminus$).

Un sencillo cálculo muestra que los vectores propios de a $X$ son exactamente las de Fourier base de vectores $\chi_B$: $$ X \chi_B(A) = (-1)^{|(S\setminus A)\cap B|} = (-1)^{|S \cap B|} (-1)^{|A \cap B|} = (-1)^{|B|} \chi_B(A). $$ Esto no es sorprendente, ya que el $X$ es un operador de convolución para el grupo $\mathbb{Z}_2^{|S|}$, y la de Fourier base es una base de caracteres para que abelian grupo.

Dado que la familia $f$ está de acuerdo, $f(A)f(S\setminus A) = 0$, y así $$0 = \langle f,Xf \rangle = \sum_B (-1)^{|B|} \hat{f}(B)^2,$$ where we again used orthonormality of the Fourier basis. Denoting $|f| = |F|/2^{|S|}$, we have seen above that $$\sum_B \hat{f}(B)^2 = |f|, \quad \hat{f}(\emptyset)^2 = |f|^2.$$ So the even and odd squared Fourier coefficients balance; their total weight is $|f|$, and the weight of one of them is $|f|^2$. Evidently, $|f|^2$ can be at most half the total weight, and so $|f| \leq 1/2$.


Esta prueba puede parecer tonto (ya que nos presenta una "línea" de la prueba anterior), pero el mismo método puede ser usado para demostrar mucho más difícil de teoremas. Por ejemplo, podemos mirar una familia de "color", es decir, generalizar los dos colores anteriores (correspondiente a "no en el conjunto de" y "en el conjunto") a un número arbitrario de colores. La familia más grande es todavía obtenidos mediante la fijación de una coordenada, pero la combinatoria es la prueba más difícil (tarda alrededor de una página); la prueba de Fourier es casi el mismo.

Aquí están algunos de los más difíciles ejemplos:

  • Familias de grafos durante un determinado conjunto de vértices, la intersección de dos cualesquiera de los cuales contiene un triángulo. El "mejor" de la familia se obtiene mediante la adopción de todas supergraphs de un triángulo fijo. La única prueba es muy similar métodos de Fourier.
  • Las familias de las permutaciones, dos de los cuales tienen en común un "entrada/salida" de par. El "mejor" de la familia es, en general, obtenido mediante la fijación de la imagen de algún elemento (todas las permutaciones de tomar $i$$j$). No es un simple combinatoria prueba de que a lo largo de las líneas anteriores. Pero es mucho más difícil de probar que estos son los únicos óptimo de las familias, mientras que se sigue con relativa facilidad de la "transformada de Fourier" de la prueba. Por otra parte, este último puede ser extendido al caso en que las permutaciones están obligados a tener un $t$ que corresponde a la entrada/salida de los pares. Las "mejores" familias tome $t$ fijo entradas de a $t$ salidas fijas. La única prueba es espectral (se requiere la teoría de la representación de $S_n$).
  • Las familias de subconjuntos de a $S$ del tamaño de la $k < |S|/2$, dos de los cuales se cruzan. La máxima de la familia es el mismo que el anterior (superseries de elementos fijos). Este es el célebre Erdős-Ko-Rado teorema. Hay una Fourier prueba con algunos beneficios adicionales sobre algunas de las combinatorias de las pruebas, a saber. se puede describir la estructura de casi óptima a las familias.

La transformada de Fourier de la prueba de el último ejemplo realmente optimiza algunos sesgada a la medida de un general de la familia de los subconjuntos, en otras palabras, en lugar de limitar los conjuntos de tamaño $k$, nos dan más relevancia a los conjuntos de tamaño aproximadamente el $k$. La prueba es como sigue:

  1. Encontrar algún producto interior, de modo que $\langle f,1 \rangle_p$ es la medida sesgada (que es$\mu_p(A) = p^{|A|} (1-p)^{|S\setminus A|}$$p \approx k/n$).
  2. Encontrar algunos "convolución " operador" $X$ tal que $\langle f,Xf \rangle_p = 0$ por cada intersección de la familia, y, además, los vectores propios de a $X$ son ortogonales con respecto al producto interior.
  3. Siga los mismos pasos que arriba a la conclusión de que la $\mu_p(f) \leq p$.

La construcción de la convolución operador $X$ utiliza fundamentalmente el hecho de que las matrices son simétricas unitarily diagonalizable (la simetría de la matriz en cuestión se obtiene a partir de una reversible de la cadena de Markov). El operador $X$ no es estrictamente unitarily diagonalizable, desde sus autovectores sólo son ortogonales con respecto a la desigual interior del producto (en el que la distribución estacionaria de la cadena de Markov cultivos), pero es obtenido a partir de dicha matriz a través de la escala de filas.


El material es tomado de una serie de artículos por Ehud Friedgut y amigos. Me voy a referir a ellos por sus actuales números en su lista.

  1. El método general (incluyendo el límite "de acuerdo a las familias de color sets") es #16.
  2. La aplicación a las permutaciones es el #2 (hay algunos papeles de seguimiento por David Ellis).
  3. La aplicación de los gráficos es #1.
  4. El espectro de la prueba de Erdős-Ko-Rado #7.
  5. La construcción en general (usando la propiedad crucial que las matrices son simétricas unitarily diagonalizable) es #6.
  6. La conexión entre el #7 y el #6 se explica en la última sección de #5.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X