11 votos

Versión matricial del teorema de Pitágoras

¿Puedo encontrar una solución para $C_{n\times n}$ explícitamente, para el $A_{n\times n}$ y $B_{n\times n}$ tal que $AA^{T} + BB^{T} = CC^{T}$ ? Aquí $A^{T}$ denota la transposición de $A$ y todas las matrices ( $A$ , $B$ y $C$ ) son reales.

Creo que hay una solución para $C$ ya que hay $n^2$ incógnitas (el $n^2$ componentes $C$ ) y $n^2$ ecuaciones (comparando los componentes del LHS y del RHS).

Nota: Si no se puede resolver (explícitamente), entonces se pueden asumir condiciones suaves (como definición positiva, simetría) sobre $A$ y $B$ .

0 votos

¿Qué es? $A'$ ? La transposición de $A$ ?

3voto

NicNic8 Puntos 1207

Creo que estás diciendo: si conocemos A y B podemos encontrar una C tal que la ecuación se mantenga.

Una matriz Hermitiana Positiva Definida M tiene una descomposición Cholesky $M=CC^{\ast}$ . Por lo tanto, si $AA^T+BB^T$ es simétrica definida positiva (lo que implica que es real), entonces existe una C que satisface la ecuación.

Una condición suficiente es que A y B sean ambos definidos positivos.

0 votos

Creo que $AA^{T}$ y $BB^{T}$ son matrices semidefinidas positivas por construcción. Y la suma de dos matrices semidefinidas positivas también es semidefinida positiva. Por lo tanto, puedo encontrar un $C$ utilizando la descomposición de Cholesky de $(AA^{T} + BB^{T})$ . ¿Es la condición suficiente de definición positiva de $A$ y $B$ ¿es necesario?

0 votos

@Shanks No sé si basta con ser semidefinido positivo para garantizar una descomposición Cholesky. Es decir, no sé si una matriz semidefinida positiva tiene siempre una descomposición de Cholesky.

1 votos

Creo que este será un enlace útil: eprints.ma.man.ac.uk/1193/1/covered/MIMS_ep2008_56.pdf

2voto

Robert Lewis Puntos 20996

Esto siempre se puede hacer.

Lo que sigue se escribe, en general, bajo el supuesto de que las matrices se toman sobre el campo complejo, suponiendo que

$A' = A^\dagger, \tag 1$

es decir, $A'$ denota la matriz adyacente de $A$ que por supuesto es la transposición del complejo conjugado:

$A^\dagger = (\bar A)^T; \tag 2$

todos los pasos clave del argumento, sin embargo, son válidos cuando se restringe únicamente a los reales, siempre que limitemos la matriz unitaria $U$ de (10), que diagonaliza $AA^\dagger + BB^\dagger$ , para ser de hecho ortogonal que tal ortogonal $U$ existe en el caso real es un resultado bien conocido; entonces, por supuesto, también tenemos $\bar A = A$ por lo que (2) se convierte en $A^\dagger = A^T$ .

Utilizando la notación (1) podemos escribir la ecuación dada como

$AA^\dagger + BB^\dagger = CC^\dagger; \tag 3$

se nos da $A$ y $B$ y buscamos $C$ que satisface (3).

Ahora, para cualquier matriz compleja como $A$ observamos que $AA^\dagger$ es autoadjunto:

$(AA^\dagger)^\dagger = (A^\dagger)^\dagger A^\dagger = AA^\dagger, \tag 4$

desde

$(A^\dagger)^\dagger = A; \tag 5$

Además, $AA^\dagger$ es semidefinido positivo, a saber

$x^\dagger (AA^\dagger x) = (x^\dagger A)(A^\dagger x) = (A^\dagger x)^\dagger (A^\dagger x) \ge 0. \tag 6$

Ahora la matriz $AA^\dagger + BB^\dagger$ también goza de estas dos propiedades, auto-unión y semidefinición positiva, como puede verse fácilmente de forma similar a (4)-(6):

$(AA^\dagger + BB^\dagger)^\dagger = (AA^\dagger)^\dagger + (BB^\dagger)^\dagger = AA^\dagger + BB^\dagger, \tag 7$

donde hemos desplegado (4), y también

$x^\dagger ((AA^\dagger + BB^\dagger)x) = x^\dagger(AA^\dagger x + BB^\dagger x) = x^\dagger(AA^\dagger x) + x^\dagger (BB^\dagger x) \ge 0, \tag 8$

ya que cada término de la derecha de esta ecuación es no negativo por medio de (6).

En este punto nos detenemos para señalar una vez más que si $A$ y $B$ son real matrices, todo lo que hemos hecho hasta ahora sigue siendo válido; en el caso real, simplemente tenemos $\bar A = A$ y por lo tanto

$A^\dagger = (\bar A)^T = A^T \tag 9$

etc.

La matriz $AA^\dagger + BB^\dagger$ al ser autoadjunta, puede ser diagonalizada por una matriz unitaria $U$ como es bien sabido; es decir, existe una matriz compleja $U$ tal que

$U^\dagger U = UU^\dagger = I, \tag{10}$

y

$U(AA^\dagger + BB^\dagger)U^\dagger = D, \tag{11}$

donde $D$ es una matriz diagonal; además $D$ es en sí mismo autoadjunto:

$D^\dagger = (U^\dagger)^\dagger(AA^\dagger + BB^\dagger)^\dagger U^\dagger = U(AA^\dagger + BB^\dagger)U^\dagger = D \tag{12}$

(donde hemos hecho uso de (7)), lo que implica que todas las entradas de $D$ son reales; obviamente, los elementos no diagonales, al ser $0$ son reales; además, los elementos diagonales de $D$ satisfacer

$D_{ii} = (D^\dagger)_{ii} = ((\bar D)^T)_{ii} = \bar D_{ii}, \tag{13}$

por lo que también son todos reales, y como se deduce de (8) y (11) que

$x^\dagger D x = x^\dagger U^\dagger (AA^\dagger + BB^\dagger)Ux = (Ux)^\dagger (AA^\dagger + BB^\dagger)Ux \ge 0; \tag{14}$

Así, encontramos que $D$ es semidefinido positivo, y a partir de aquí no hay más que un paso fácil para ver que las entradas diagonales de $D$ obedecer

$D_{ii} \ge 0. \tag{15}$

En virtud de (15) podemos definir la matriz diagonal $\sqrt D$ tal que

$(\sqrt D)_{ij} = [\delta_{ij} (\sqrt D)_{ii}]; \tag{16}$

está claro que

$(\sqrt D)^\dagger = \sqrt D, \tag{17}$

y además que

$(\sqrt D)^2 = D; \tag{18}$

así, a partir de (11),

$(U^\dagger \sqrt D U)(U^\dagger \sqrt D U) = U^\dagger \sqrt D UU^\dagger \sqrt D U = U\dagger \sqrt D I \sqrt D U = U^\dagger (\sqrt D)^2 U = U^\dagger D U$ $= U^\dagger (U(AA^\dagger + BB^\dagger)U^\dagger)U = (U^\dagger U)(AA^\dagger + BB^\dagger)(U^\dagger U)$ $= I(AA^\dagger + BB^\dagger)I = AA^\dagger + BB^\dagger; \tag{19}$

si ahora ponemos

$C = U^\dagger \sqrt D U, \tag{20}$

vemos que $C$ es autoadjunto:

$C^\dagger = (U^\dagger \sqrt D U)^\dagger = U^\dagger (\sqrt D)^\dagger (U^\dagger)^\dagger = U^\dagger \sqrt D U = C, \tag{21}$

y (19) da como resultado

$C^\dagger C = C^2 = ( U^\dagger \sqrt D U)^2 = AA^\dagger + BB^\dagger, \tag{22}$

como se desee. Observamos que el procedimiento seguido anteriormente proporciona una de facto receta para la computación explícita $C$ .

1voto

Spencer Puntos 48

Suponemos que las matrices son reales.

Sobre un comentario (falso) del OP; de hecho, consideramos un sistema de sólo $\approx n^2/2$ ecuaciones en $n^2$ incógnitas, porque $S=AA^T+BB^T$ es simétrica. Por lo tanto, hay una infinidad de soluciones (excepto cuando $A=B=0$ ).

En general, $\ker(A^T)\cap \ker(B^T)=\{0\}$ y $S$ es simétrico $>0$ ; observe que hay dos soluciones particulares que son interesantes:

La simetría $>0$ matriz $C=S^{1/2}$ y la matriz triangular $C$ obtenido por el método estándar de Choleski.

Excepcionalmente, $S$ no es invertible; en este caso, podemos volver a calcular las dos matrices anteriores $C$ La segunda, utilizando el método Choleski ampliado. Sobre esto, el OP dio una buena referencia (con fecha de 1990) por Higham. Higham es un muy buen matemático que también escribe muy bien; ha escrito un libro sobre este tema que recomiendo a todos que lean:

Manual de escritura para las ciencias matemáticas, Siam.

Nuestro amigo @Robert Lewis también escribe perfectamente; no sé si ha leído este libro...

Observación. Higham, como muchos otros investigadores, utiliza la expresión "semidefinido positivo". En mi opinión, es un fallo del inglés; deberíamos decir "non-negative semidefinite"...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X