Si $A$ es normal, entonces los valores absolutos de sus valores propios son iguales a sus valores singulares. En particular, si $\sigma_{\min}(A)$ y $\sigma_{\max}(A)$ son los valores singulares mínimo y máximo de $A$ respectivamente, entonces $$ \sigma_{\min}(A)=\min_{\|x\|=1}\|Ax\|_2=\min_{1\leq i\leq n}|\lambda_i| \quad\text{and}\quad \sigma_{\max}(A)=\max_{\|x\|=1}\|Ax\|_2=\max_{1\leq i\leq n}|\lambda_i|. $$ La forma más sencilla de verlo es considerar la descomposición espectral $A=U\Lambda U^*$ y observe que $\Lambda=|\Lambda|W$ donde $W$ es una matriz diagonal unitaria (si $\lambda=|\lambda|e^{\iota\phi}$ es un valor propio de $A$ el factor correspondiente en la diagonal de $W$ es exactamente la parte de fase de $\lambda$ ). Por lo tanto $A=U|\Lambda|(U\bar{W})^*$ . Pero con $\Sigma:=|\Lambda|$ y $V:=U\bar{W}$ , $A=U\Sigma V^*$ es la SVD de $A$ .
Queda por demostrar que las entradas diagonales del factor triangular $R$ satisfacer $$\tag{1} \sigma_{\min}(A)\leq |r_{jj}| \leq \sigma_{\max}(A), \quad 1\leq j\leq n. $$ Sea $e_j$ sea el $j$ columna de la matriz de identidad. Entonces $$\tag{2} \sigma_{\max}(A)=\max_{\|x\|=1}\|Ax\|_2=\max_{\|x\|=1}\|Rx\|_2\geq\|Re_j\|_2=\sqrt{\sum_{i=1}^j|r_{ij}|^2}\geq|r_{jj}|, $$ lo que demuestra el límite superior.
Para el límite inferior, si $A$ es singular, entonces $\sigma_{\min}(A)=0$ y el límite es trivial. Si $A$ es invertible, entonces al igual que antes, tenemos $$\tag{3} \frac{1}{\sigma_{\min}(A)}=\sigma_{\max}(A^{-1})=\max_{\|x\|=1}\|A^{-1}x\|_2=\max_{\|x\|=1}\|R^{-1}x\|_2\geq \frac{1}{|r_{jj}|}, $$ donde la última igualdad se debe a que la diagonal de $R^{-1}$ es la inversa de la diagonal de $R$ . Sumando (2) y (3) se obtiene (1).
0 votos
Supongo que aquí falta algo. Si $Q,R$ es una descomposición QR, entonces también lo es $-Q,-R$ ¿tal vez necesite valores absolutos?
0 votos
Sí, tienes razón. Lo he arreglado.
0 votos
Oops, eso no es exactamente lo que esperaba, estaba pensando $|r_{jj}|$ ...
0 votos
Lo he arreglado, pero creo que las otras cosas también son correctas
0 votos
Si utilizas Cholesky, probablemente necesites simétricas definidas positivas
0 votos
Esta matriz es simétrica en $\mathbb{C}^n$ y podemos suponer que es positivo definir
0 votos
Tal vez te refieras a la factorización Cholesky de $A^HA$ en lugar de $A$ . Pero no importa mucho, ya que el factor de Cholesky (triangular superior) de $A^HA$ es el mismo que el factor triangular de la factorización QR (hasta cierto escalado con una matriz diagonal unitaria).