1 votos

Semidefinición positiva de la matriz adjunta

Estoy estudiando las condiciones de semidefinición positiva de un $(n+1)\times(n+1)$ matriz simétrica $\mathbf{M}$ construido de la siguiente manera: $$ \mathbf{M}=\begin{pmatrix} \mathbf{A} & \mathbf{b} \\ \mathbf{b}^T & c \end{pmatrix} $$ donde $\mathbf{A}$ es una simetría $n\times n$ matriz, $\mathbf{b}$ es un $n$ -y el vector de columnas $c$ es un número real.
La primera $n$ principales menores de $\mathbf{M}$ son los principales menores de $\mathbf{A}$ Así que $\mathbf{A}$ debe ser semidefinido positivo.
La última condición es $\det\mathbf{M}=|\mathbf{M}|\geq0$ . Por un simple cálculo, obtuve $$ |\mathbf{M}|=c|\mathbf{A}|-\mathbf{b}^T\mathbf{A}^*\mathbf{b}\geq0 $$ donde $\mathbf{A}^*$ es la matriz adyacente de $\mathbf{A}$ es decir, la transposición de la matriz de cofactores.
Esta condición se puede escribir $$ c|\mathbf{A}|-\mathbf{b}^T\mathbf{A}^*\mathbf{b}= \begin{cases} |\mathbf{A}|\left(c-\mathbf{b}^T\mathbf{A}^{-1}\mathbf{b}\right), & \text{if }|\mathbf{A}|>0 \\ -\mathbf{b}^T\mathbf{A}^*\mathbf{b}, & \text{if }|\mathbf{A}|=0 \end{cases} $$ Así, cuando $|\mathbf{A}|>0$ la condición se convierte simplemente en $$ c\geq\mathbf{b}^T\mathbf{A}^{-1}\mathbf{b}\geq0, $$ dado que $\mathbf{A}^{-1}$ es positiva definida.
Cuando $|\mathbf{A}|=0$ la condición se convierte en $$ \mathbf{b}^T\mathbf{A}^*\mathbf{b}\leq0, $$ por lo que me interesa saber si $\mathbf{A}^*$ es semidefinido positivo cuando $\mathbf{A}$ es semidefinido positivo.
En el caso $|\mathbf{A}|>0$ utilizando la descomposición espectral $$ \mathbf{A}=\sum_{i=1}^n\lambda_i\mathbf{e}_i\otimes\mathbf{e}_i, $$ donde $\lambda_i$ son los valores propios y $\mathbf{e}_i$ los vectores propios unitarios, por lo que tenemos $$ \mathbf{A}^*=|\mathbf{A}|\mathbf{A}^{-1}=\left(\prod_{k=1}^n{\lambda}_k\right)\sum_{i=1}^n\frac{1}{\lambda_i}\mathbf{e}_i\otimes\mathbf{e}_i = \sum_{i=1}^n\left(\prod_{k=1,k\neq i}^n{\lambda}_k\right)\mathbf{e}_i\otimes\mathbf{e}_i, $$ así que $\mathbf{A}^*$ es positiva definida cuando $\mathbf{A}$ es, dado que sus valores propios se expresan como el producto de los valores propios de $\mathbf{A}$ excluido uno por uno.
Sospecho que esta última expresión representa $\mathbf{A}^*$ también cuando $|\mathbf{A}|=0$ , probablemente considerando una matriz semidefinida positiva con determinante evanescente como el límite de una matriz definida positiva cuando uno o más valores propios tienden a cero.

Así que mis preguntas:

  1. ¿son correctos mis cálculos?
  2. la última expresión de $\mathbf{A}^*$ es válido también cuando $|\mathbf{A}|=0$ ?
  3. ¿cómo se puede demostrar esto?

1voto

Jukka Dahlbom Puntos 1219

Sí, tus ecuaciones son correctas. Sí, la última expresión que has escrito es válida cuando $|A| = 0$ . Tenga en cuenta, en particular, que $\mathbf A^* = 0$ siempre que el núcleo de $\mathbf A$ tiene una dimensión mínima de $2$ .

Para una prueba rápida, podríamos simplemente observar que ambos lados de la ecuación $$ \mathbf{A}^* = \sum_{i=1}^n\left(\prod_{k=1,k\neq i}^n{\lambda}_k\right)\mathbf{e}_i\otimes\mathbf{e}_i $$ son funciones continuas de las entradas de $\mathbf A$ . Si la ecuación es válida para todos los casos estrictamente positivos definidos $\mathbf A$ entonces se debe cumplir para la semidefinida positiva $\mathbf A$ "por continuidad". En particular, si definimos $\mathbf A_{\epsilon} = \mathbf A + \epsilon \mathbf I$ y $\lambda_{k}^{\epsilon}$ para ser el $k$ El valor propio de $\mathbf A_{\epsilon}$ entonces podemos decir que para una semidefinida positiva $\mathbf A$ tenemos $$ \mathbf{A}^* = \lim_{\epsilon \to 0^+}\mathbf{A}_{\epsilon}^* = \lim_{\epsilon \to 0^+}\sum_{i=1}^n\left(\prod_{k=1,k\neq i}^n{\lambda}_k^{\epsilon}\right)\mathbf{e}_i\otimes\mathbf{e}_i = \sum_{i=1}^n\left(\prod_{k=1,k\neq i}^n{\lambda}_k\right)\mathbf{e}_i\otimes\mathbf{e}_i. $$


Para una demostración directa: observamos que $\dim\ker \mathbf A \geq 2$ implica que $\mathbf A^* = 0$ que es semidefinido positivo. Para el caso en que $\dim\ker \mathbf A = 1$ vemos que $\mathbf A$ es simétrico y $\mathbf A \mathbf A^* = 0$ implica que $\mathbf A^*$ tiene un rango máximo de $1$ lo que significa que $\mathbf A^*$ puede escribirse de la forma $\mathbf A^* = k \mathbf {xx}^T$ para algún vector unitario $\mathbf x$ y algunos $k \in \Bbb R$ . Observamos que $k$ satisface $\operatorname{tr}(\mathbf A^*) = k$ .

Con esto, basta con señalar que $$ \operatorname{tr}(\mathbf A^*) = -\frac{d}{dt}|_{t = 0} \det(t\mathbf I - \mathbf A) = -\frac{d}{dt}|_{t = 0} (t - \lambda_1) \cdots (t - \lambda_n). $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X