6 votos

Demostrar que si A es una matriz M entonces A es también una matriz P

$A \in \mathbb{R}^{n \times n}$ es un $P$ -si todos sus menores principales son positivos.

Dejemos que $I$ sea la matriz de identidad de rango $n$ . $A \in \mathbb{R}^{n \times n}$ es un no-singular $M$ -matriz si $A=I-B$ donde $B \in \mathbb{R}^{n \times n}$ sólo tiene entradas no negativas y el mayor valor propio de $B$ (o máximo de módulos) es estrictamente menor que uno.

Reclamación $1$ : Nonsingular $M$ -son una subclase de $P$ -matrices.

Estoy tratando de probar la afirmación $1$ . Si llamamos $\mathbb{M}$ el conjunto de los no singulares $M$ -matrices y $\mathbb{P}$ el conjunto de $P$ -entonces la demostración de la afirmación anterior se reduce a tomar un elemento (cualquiera) del conjunto $\mathbb{M}$ y mostrando que este elemento también pertenece a $\mathbb{P}$ .

Parece largo pero factible para $n=2$ . Supongamos que $A=I-B \in \mathbb{M}$ . Tome una matriz $B$ con entradas no negativas $b_{11}=a$ , $b_{12}=b$ , $b_{21}=c$ , $b_{22}=d$ . Calculamos el mayor valor propio de $B$ (caso en el que $\Delta$ es cero o estrictamente positivo da 6 casos diferentes a considerar). Por ejemplo, para el caso $\Delta =0$ con $a=d$ y $b=c=0$ obtenemos $$\lambda_1=\lambda_2 = \frac{a+d}{2}$$ Desde $A$ está en $\mathbb{M}$ tenemos la condición: $$ a < 1$$ Para que A también esté en $\mathbb{P}$ se debe cumplir lo siguiente: $$ (1 - a)(1 -d) - bc \geq 0$$ $$\Leftrightarrow (1-a)^2 \geq 0$$ que siempre es cierto. Los demás casos se alargan y se complican. Entonces suponer que la hipótesis se cumple para n y demostrarlo para n+1 parece también largo.

¿alguna sugerencia de una forma directa de probar la reclamación?

También para $n=2$ podemos tomar $A \in \mathbb{P}$ y supongamos que $A \not \in \mathbb{M}$ . Obtenemos una contradicción directamente para el caso $a=d$ y $b=c=0$ (y con más esfuerzo lo comprobamos para los otros casos)...

Gracias

2voto

Algebraic Pavel Puntos 11952

Su definición de matriz M es algo diferente a la habitual. Normalmente, $A$ es una matriz M si $A=\sigma I-B$ , donde $B\geq 0$ (por componentes) y $\sigma>\rho(B)$ . De todos modos, se puede suponer, por supuesto, que $\sigma=1$ sin pérdida de generalidad. Así que vamos a suponerlo.

Desde $\rho(B)<1$ y $B\geq 0$ tenemos $$ A^{-1}=(I-B)^{-1}=\sum_{i=0}^\infty B^i\geq 0. $$

Algunas observaciones son útiles:

  • $A$ tiene una diagonal positiva. Esto se debe a que el producto punto de los $i$ La fila de $A^{-1}$ (que es un vector no negativo no nulo) con el $i$ columna de $A$ (que tiene entradas no positivas fuera de la diagonal) es uno, por lo que $$ \underbrace{\color{blue}{a_{ii}^{(-1)}}}_{\color{blue}{\geq 0}}a_{ii}=1-\underbrace{\color{red}{\sum_{j\neq i}a^{(-1)}_{ij}a_{ij}}}_{\color{red}{\leq 0}}>0. $$ Por lo tanto, $a_{ii}^{(-1)}$ no puede ser cero (y es positivo) y $a_{ii}$ también es positivo.

  • Dejemos que $x=A^{-1}e$ , donde $e:=[1,\ldots,1]^T$ . Desde $e>0$ y $A^{-1}\geq 0$ tenemos $x\geq 0$ . Si algún componente, por ejemplo, $x_i=e_i^Tx$ ( $e_i$ es el $i$ columna de la matriz identidad) sería cero, tendríamos $0=x_i=e_i^Tx=e_i^TA^{-1}e=(e_i^TA^{-1})e=0$ lo que implicaría que el $i$ La fila de $A^{-1}$ es cero (contradicción). Por lo tanto, en realidad, $x>0$ .

  • Dejemos que $D:=\mathrm{diag}(x)$ (una matriz diagonal definida positiva con $x$ en la diagonal). Entonces $ADe=Ax=e>0$ es decir, el sumas de filas de $AD$ son positivos .

Dado que las sumas de las filas de $AD$ son positivos y $AD$ tiene diagonal positiva, por el teorema de Gershgorin, las partes reales de los valores propios de $AD$ son positivos y por lo tanto $\det(AD)>0$ . Desde $D$ es positiva definida, esto da $\det(A)=\det(AD)\det(D^{-1})>0$ .

Ahora, para traducir esto a la declaración sobre todos los menores , tenga en cuenta que $\det(A)>0$ se deduce de la dominancia diagonal estricta de $AD$ . Por lo tanto, tome cualquier submatriz principal de $AD$ y como esta submatriz tendrá menos entradas negativas fuera de la diagonal, sus sumas de filas deben ser positivas también.

0voto

Sha Puntos 89

Posible respuesta creo que utilizando el siguiente teorema:

Teorema $1$ : Supongamos que $A$ es una matriz cuadrada y $\lambda$ es un valor propio de $A$ . Sea $q(x)$ sea un polinomio en la variable $x$ . Entonces $q(\lambda)$ es un valor propio de la matriz $q(A)$ .

Prueba: http://linear.ups.edu/html/section-PEE.html

reclamo: si $A=I-B$ es un no-singular $M$ - $matrix$ entonces $A=I-B$ es un $P$ - $matrix$ .

prueba: Se trata de demostrar que cuando $A$ es un $M$ - $matrix$ entonces $A$ es positiva (semi) definida (lo mismo que tener menores principales (estrictamente) positivos).

suponga que $\lambda$ es un valor propio de $B$ y el mayor valor propio de $B$ es estrictamente menor que 1.

Utilizando el teorema $1$ , $$q(B) = I - B$$ Tenemos $q(\lambda) = 1 - \lambda $ un valor propio de $q(B)$ . Desde $q(B)=I - B =A$ se deduce que $1 - \lambda $ es un valor propio de $A$ . Para $A$ para que sea positiva definida necesitamos $$ 1 - \lambda > 0 $$ Esta condición se cumple ya que suponemos que el mayor valor propio de $B$ es estrictamente menor que 1.

0 votos

Tenga en cuenta que $A$ (y $B$ ) no necesita ser simétrica, por lo que no se puede comparar simplemente $1-\lambda>0$ desde $\lambda$ puede ser compleja. Por el teorema de Perron-Frobenius, sólo se puede asegurar que $\rho(B)$ es un valor propio real de $B$ . Por supuesto, si $B$ fuera simétrica, entonces el resultado se derivaría simplemente de este argumento (no sería necesario ni siquiera suponer que $B$ no es negativo).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X