6 votos

Cada matriz real$A$ es la combinación lineal de$4$ matrices ortogonales

Pregunta:

Demostrar que toda matriz $A\in M_n(\mathbb R)$ es la combinación lineal de los $4$ ortogonal de matrices $X, Y, Z, W$ , es decir, $A=aX+bY+cZ+dW$ para algunos $a,b,c,d\in\mathbb R$.

Este problema está tomado de un foro y este es mi paráfrasis. No es obviamente cierto. Pero creo que la prueba debe invocar el singular valor de la descomposición (SVD) de un real de la matriz, pero no está claro para mí lo que el siguiente paso es. Cualquier idea se agradece. Muchas gracias.

3voto

psychotik Puntos 171

En vista de la enfermedad vesicular porcina, podemos suponer que la $A\neq 0$ e $A = \operatorname{diag}(\lambda_1, \cdots, \lambda_n)$ tal que $\lambda_i$'s son no negativos, y $\lambda_n$ es el más grande entre los $\lambda_i$'s.

Bajo este supuesto, tenemos $\lambda_n > 0$. Ahora escribo $\lambda_{2i-1} = a_i - b_i$ e $\lambda_{2i} = a_i + b_i$. En el caso de $n$ es impar, se $a_{(n+1)/2} = 2\lambda_n$ e $b_{(n+1)/2} = \lambda_n$. Esto le da

$$ A = \operatorname{diag}(a_1, a_1, a_2, a_2, \cdots) - \operatorname{diag}(b_1, -b_1, b_2, -b_2, \cdots). $$

Ahora nos damos cuenta de que $|a_i| \leq 2\lambda_n$ e $|b_i| \leq \lambda_n$, aod así, existen $\alpha_i$ e $\beta_i$ tal que $a_i = 2\lambda_n \cos\alpha_i$ e $b_i = \lambda_n \cos\beta_i$. Ahora, el truco es considerar las matrices

$$ R_{\theta} = \begin{pmatrix} \cos \theta & -\sin\theta \\ \sin\theta & \cos \theta \end{pmatrix} \qquad \text{and} \qquad S_{\theta} = \begin{pmatrix} \cos \theta & \sin\theta \\ \sin\theta & -\cos \theta \end{pmatrix}. $$

A continuación, ambos $R_\theta$ e $S_\theta$ son ortogonales. Por otra parte, hemos

$$R_\theta + R_{-\theta} = (2 \cos\theta) \operatorname{diag}(1, 1) \qquad \text{and} \qquad S_\theta + S_{-\theta} = (2 \cos\theta) \operatorname{diag}(1, -1).$$

Ahora con esto, podemos escribir

$$ \operatorname{diag}(a_1, a_1, a_2, a_2, \cdots) = \lambda_n \begin{pmatrix} R_{\alpha_1} & & \\ & R_{\alpha_2} & \\ & & \ddots \end{pmatrix} + \lambda_n \begin{pmatrix} R_{-\alpha_1} & & \\ & R_{-\alpha_2} & \\ & & \ddots \end{pmatrix} $$

y

$$ \operatorname{diag}(b_1, -b_1, b_2, -b_2, \cdots) = \frac{\lambda_n}{2} \begin{pmatrix} S_{\beta_1} & & \\ & S_{\beta_2} & \\ & & \ddots \end{pmatrix} + \frac{\lambda_n}{2} \begin{pmatrix} S_{-\beta_1} & & \\ & S_{-\beta_2} & \\ & & \ddots \end{pmatrix}. $$

Cuando $n$ es impar, el último bloque en la diagonal en cada bloque de la matriz es el $1\times 1$ matriz con la entrada de $1$. Ahora bien, todas estas cuatro bloque de matrices son ortogonales, y por lo tanto el deseado de demanda de la siguiente manera.

2voto

Chris Ballance Puntos 17329

Véase la proposición 1 de Chi-Kwong Li y Edward Poon, Descomposición aditiva de matrices reales , Álgebra lineal y multilineal, 50 (4): 321-326, 2002.

Mi memoria es un poco confusa, pero si recuerdo correctamente, el límite más bajo del número de matrices ortogonales necesario fue un problema abierto hace dos décadas. El documento de Li y Poon anterior muestra que se necesitan como máximo cuatro, pero no se sabía si tres son suficientes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X