2 votos

¿Cuándo es esta matriz semidefinida positiva?

Tengo una simétrica $n \times n$ matriz de la siguiente manera. Quiero encontrar los valores propios de esta matriz hessiana para afirmar que no es Semidefinida Positiva (es decir, algunos valores propios son negativos mientras que los demás son no negativos). Si no pudiera encontrar todos los valores propios, sería suficiente para mi propósito encontrar sólo un valor propio negativo:

NOTA: Podría haber encontrado los valores propios en el $2\times2$ y $3\times3$ caso. Busco el general $n\times n$ caso. $a_1$ y $a_2$ deben ser iguales para tener valores propios positivos en $2\times 2$ caso. Igualmente, $a_1, a_2$ y $a_3$ deben ser iguales para tener valores propios positivos en $3\times 3$ caso. $$A=\begin{pmatrix} 2a_1&a_1+a_2&\dots &a_1+a_{n-1}&a_1+a_n\\ a_1+a_2&2a_2&\dots &a_2+a_{n-1}&a_2+a_n\\ \vdots&\vdots&&\vdots&\vdots\\ a_1+a_{n-1}&a_2+a_{n-1}&\dots&2a_{n-1}&a_{n-1}+a_n\\ a_1+a_n&a_2+a_n&\dots&a_n+a_{n-1}&2a_n \end{pmatrix}$$

Así que $A_{ij} = a_i+a_j$ .

3voto

Dennis Puntos 9534

Tenga en cuenta que $A$ puede representarse como $$A=a^T\otimes e+e^T\otimes a,$$ donde $a=(a_1,\ldots,a_n)$ y $e=(1,\ldots,1)$ . Por lo tanto $A$ tiene rango $\leq 2$ y puede tener como máximo dos valores propios distintos de cero.

Los vectores propios de columna correspondientes son combinaciones lineales de $a^T$ y $e^T$ . Escribir $w=\alpha a+\beta e$ obtenemos $$Aw^T=\bigl(\alpha (e,a)+\beta(e,e)\bigr) a^T+\bigl(\alpha (a,a)+\beta(a,e)\bigr) e^T,$$ donde $(x,y)=x\cdot y^T=\sum_{k=1}^n x_k y_k$ denota el producto escalar habitual. Por lo tanto, la ecuación para los dos valores propios no triviales se convierte en $$\operatorname{det}\left(\begin{array}{cc} (e,a)-\lambda & (e,e) \\ (a,a) & (a,e)-\lambda \end{array}\right)=0,$$ o, lo que es lo mismo, $$\lambda^2-2(e,a)\lambda+(e,a)^2-(e,e)(a,a)=0.$$ Pero de otra forma: $$\lambda^2-2n\langle a\rangle\lambda+n^2\left(\langle a\rangle^2-\langle a^2\rangle\right)=0\quad \Longrightarrow \quad \lambda_{\pm}=n\left[\langle a\rangle\pm\sqrt{\langle a^2\rangle}\right],$$ donde $\langle x\rangle\displaystyle=\frac{\sum_{k=1}^n x_k}{n}$ . Por lo tanto $A$ es semidefinida positiva si $a_1=a_2=\ldots=a_n\geq 0$ .

2voto

Roberto Trom Puntos 43

La matriz $A$ puede descomponerse como $A=au^T+ua^T$ donde $a\in\mathbb{R}^n$ es el vector que contiene $a_1,\ldots,a_n$ y $u\in\mathbb{R}^n$ es el vector de todos los unos. Si $v\in\mathbb{R}^n$ es un vector perpendicular a ambos $a$ y $u$ entonces $Av=0$ . Por lo tanto, siempre tenemos $n-2$ valores propios iguales a cero. Para los dos últimos valores propios, tenemos que los casos.

En el primer caso, $a$ y $u$ son linealmente dependientes, es decir, $a=\alpha u$ para algunos $\alpha\in\mathbb{R}$ en este caso $A=2\alpha uu^T$ y los dos últimos valores propios son $0$ y $2\alpha n$ . Los vectores propios asociados son $\frac{u}{||u||}$ (para el valor propio distinto de cero) y cualquier conjunto de $n-1$ vectores ortogonales a $u$ . Todos los valores propios son no negativos y la matriz es PSD.

En el segundo caso, $a$ y $u$ son linealmente independientes. Para nuestro análisis, podemos limitar nuestra atención, sin pérdida de generalidad, a los vectores $v\in\mathbb{R}^n$ en el lapso de $\{a,u\}$ (si esto no es cierto, el componente de $v$ que es ortogonal a ambos $a$ y $u$ se anula, como ya se ha dicho). Esto significa que existen $\alpha,\beta\in\mathbb{R}$ tal que $v=\alpha a+\beta u$ . La ecuación de valores propios $Av=\lambda v$ se reduce a, en el LHS,

$$ Av=(au^T+ua^T)(\alpha a+\beta u)=\left((u^Ta) \alpha+(u^Tu)\beta\right)a +\left((a^Ta)\alpha+(a^Tu)\beta\right) u, $$

y en el lado derecho

$$ \lambda v= \lambda\alpha a +\lambda\beta u. $$

Desde $a$ y $u$ son linealmente independientes, la ecuación tiene solución si los coeficientes de $a$ y $u$ en los dos lados coinciden.

Por tanto, obtenemos un $2 \times 2$ sistema de ecuaciones de la forma

$$ \begin{bmatrix} u^Ta & ||u||^2\\||a||^2 & u^Ta \end{bmatrix}\begin{bmatrix}\alpha\\\beta\end{bmatrix}=\lambda \begin{bmatrix}\alpha\\\beta\end{bmatrix}. $$

Tenga en cuenta que $||u||^2=n$ . Intuitivamente, esto tiene sentido, porque redujimos nuestro $n\times n$ problema de valores propios al $2 \times 2$ problema de valores propios obtenido restringiendo los vectores al espacio bidimensional abarcado por $a$ y $u$ .

Un software de cálculo simbólico me informa de que los valores propios para la reducida $2 \times 2$ caso son

$\lambda_{1,2}=u^Ta\pm\sqrt{n||a||^2}.$

(Obsérvese que esta fórmula da el resultado correcto también para el caso $a=\alpha u$ aunque, técnicamente, su derivación no sería correcta).

En conclusión, la matriz A puede ser PSD o indefinida en función de $a$ . Por ejemplo, si $a=u$ entonces es PSD, pero si $a$ es ortogonal a $u$ entonces es indefinido.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X