Nota. Una versión anterior de esta respuesta sólo funciona para matrices normales Gracias a themaker por señalarlo. Afortunadamente, la respuesta a este maravilloso post parece proporcionar el paso para generalizar la prueba a una matriz cuadrada compleja arbitraria.
Declaración
Queremos demostrar que para una matriz compleja \mathbf A , \sum_{i = 1}^n |\lambda_i| \le \sum_{i, j = 1}^n |a_{ij}|. \tag{1} El truco consiste en utilizar la función Descomposición SVD o el Descomposición de Schur , pero primero repasaremos algunos casos más sencillos.
Matriz diagonal
Si la matriz es diagonal, entonces los valores propios coinciden con los valores propios \lambda_i = a_{ii}. La afirmación es obviamente cierta, ya que \sum_{i=1}^n |\lambda_{i}| = \sum_{i=1}^n |a_{ii}| \le \sum_{i,j=1}^n |a_{ij}|.
Matriz definida positiva
En segundo lugar, observamos que la suma de los valores propios es igual a la traza de la matriz (es decir, la suma de la diagonal). Cada valor propio es una raíz de \begin{align} 0 &= |\lambda - \mathbf A| = \lambda^n - \sum_{i = 1}^n a_{ii} \, \lambda^{n-1} + \cdots. \end{align} Por La fórmula de Vieta , tenemos \begin{align} \sum_{i=1}^n \lambda_i = \sum_{i = 1}^n a_{ii}. \end{align}
Ahora bien, si la matriz es definida positiva, hemos terminado, porque \begin{align} \sum_{i = 1}^n |\lambda_i| &= \sum_{i = 1}^n \lambda_i = \sum_{i = 1}^n a_{ii} \le \sum_{i,j=1}^n |a_{ij}|. \end{align}
General
Generalmente, una matriz compleja permite descomposición de valores singulares : \mathbf A \equiv \mathbf U \mathbf \Sigma \mathbf V^\dagger, donde \mathbf U y \mathbf V son matrices unitarias, y \mathbf \Sigma es una matriz diagonal llena de números no negativos, \sigma_{ii} llamada los valores singulares .
Ahora en esta entrada , día 23 demostró, utilizando la descomposición de Schur que \sum_{i = 1}^n |\lambda_i| \le \sum_{i = 1}^n \sigma_{ii} = \mathrm{Tr} \mathbf \Sigma, \tag{2}
Dado que la traza es un invariante bajo a transformación de similitudes : |\lambda - \mathbf A| = |\mathbf P^{-1}(\lambda - \mathbf A)\mathbf P| = |\lambda - \mathbf P^{-1} \mathbf A \mathbf P|, tenemos \begin{align} \mathrm{Tr} \mathbf \Sigma &= \mathrm{Tr} \left( \mathbf U^\dagger \mathbf A \mathbf V \right) \\ &= \mathrm{Tr} \left( \mathbf V \, \mathbf U^\dagger \mathbf A \right) = \mathbf{Tr} \left( \mathbf A \mathbf V \, \mathbf U^\dagger \right) . \tag{3} \end{align}
Si definimos \mathbf W = \mathbf V \mathbf U^\dagger , y denotan el k columna de \mathbf A por \mathbf a_k , entonces \begin{align} \sum_{i = 1}^n |\lambda_i| &\le \mathrm{Tr} \mathbf \Sigma \\ &= \mathrm{Tr} \left( \mathbf W \mathbf A \right) = \sum_{i = 1}^n \left( \mathbf W \mathbf a_i \right)_i. \\ &\le \sum_{i = 1}^n \| \mathbf W \mathbf a_i \| = \sum_{i = 1}^n \| \mathbf a_i \| \tag{4} \\ &\le \sum_{i,j=1}^n |a_{ij}|. \end{align} donde, \| \dots \| denota la norma euclidiana, y hemos utilizado el hecho de que \mathbf W es una matriz unitaria, tal que \| \mathbf W \mathbf a_i \|^2 = (\mathbf W \mathbf a_i)^\dagger (\mathbf W \mathbf a_i) = \mathbf a_i^\dagger \mathbf W^\dagger \mathbf W \mathbf a_i = \mathbf a_i^\dagger \mathbf a_i = \| \mathbf a_i \|, así como la desigualdad \| \mathbf x \| = \sqrt{ \sum_{i = 1}^n |x_i|^2 } < \sum_{i = 1}^n |x_i|.
De hecho, acabamos de mostrar una afirmación más fuerte, (4). Obsérvese también que \mathbf a_i puede sustituirse por una fila de \mathbf A si utilizamos la segunda forma de (3) y seguimos un razonamiento similar.
Nota
En realidad es más fácil, y más eficiente, argumentar lo mismo utilizamos la descomposición de Schur, siguiendo el puesto citado .