La matriz $A$ puede descomponerse como $A=au^T+ua^T$ donde $a\in\mathbb{R}^n$ es el vector que contiene $a_1,\ldots,a_n$ y $u\in\mathbb{R}^n$ es el vector de todos los unos. Si $v\in\mathbb{R}^n$ es un vector perpendicular a ambos $a$ y $u$ entonces $Av=0$ . Por lo tanto, siempre tenemos $n-2$ valores propios iguales a cero. Para los dos últimos valores propios, tenemos que los casos.
En el primer caso, $a$ y $u$ son linealmente dependientes, es decir, $a=\alpha u$ para algunos $\alpha\in\mathbb{R}$ en este caso $A=2\alpha uu^T$ y los dos últimos valores propios son $0$ y $2\alpha n$ . Los vectores propios asociados son $\frac{u}{||u||}$ (para el valor propio distinto de cero) y cualquier conjunto de $n-1$ vectores ortogonales a $u$ . Todos los valores propios son no negativos y la matriz es PSD.
En el segundo caso, $a$ y $u$ son linealmente independientes. Para nuestro análisis, podemos limitar nuestra atención, sin pérdida de generalidad, a los vectores $v\in\mathbb{R}^n$ en el lapso de $\{a,u\}$ (si esto no es cierto, el componente de $v$ que es ortogonal a ambos $a$ y $u$ se anula, como ya se ha dicho). Esto significa que existen $\alpha,\beta\in\mathbb{R}$ tal que $v=\alpha a+\beta u$ . La ecuación de valores propios $Av=\lambda v$ se reduce a, en el LHS,
$$ Av=(au^T+ua^T)(\alpha a+\beta u)=\left((u^Ta) \alpha+(u^Tu)\beta\right)a +\left((a^Ta)\alpha+(a^Tu)\beta\right) u, $$
y en el lado derecho
$$ \lambda v= \lambda\alpha a +\lambda\beta u. $$
Desde $a$ y $u$ son linealmente independientes, la ecuación tiene solución si los coeficientes de $a$ y $u$ en los dos lados coinciden.
Por tanto, obtenemos un $2 \times 2$ sistema de ecuaciones de la forma
$$ \begin{bmatrix} u^Ta & ||u||^2\\||a||^2 & u^Ta \end{bmatrix}\begin{bmatrix}\alpha\\\beta\end{bmatrix}=\lambda \begin{bmatrix}\alpha\\\beta\end{bmatrix}. $$
Tenga en cuenta que $||u||^2=n$ . Intuitivamente, esto tiene sentido, porque redujimos nuestro $n\times n$ problema de valores propios al $2 \times 2$ problema de valores propios obtenido restringiendo los vectores al espacio bidimensional abarcado por $a$ y $u$ .
Un software de cálculo simbólico me informa de que los valores propios para la reducida $2 \times 2$ caso son
$\lambda_{1,2}=u^Ta\pm\sqrt{n||a||^2}.$
(Obsérvese que esta fórmula da el resultado correcto también para el caso $a=\alpha u$ aunque, técnicamente, su derivación no sería correcta).
En conclusión, la matriz A puede ser PSD o indefinida en función de $a$ . Por ejemplo, si $a=u$ entonces es PSD, pero si $a$ es ortogonal a $u$ entonces es indefinido.