4 votos

¿Por qué una forma es positiva sólo si su matriz en alguna base ordenada es una matriz positiva?

Estoy leyendo un libro de Hoffman "Álgebra Lineal" Capítulo 9 "los Operadores en el Interior del Producto de Espacios" y se perdió en el positivo de la propiedad (sesqui-lineal) de las formas, los operadores y matrices.

La confusión viene de que la definición de "positivo" de la matriz es diferente de las formas o de los operadores.

Definiciones.

Una forma de $f$ en una real o complejo espacio vectorial $V$ se llama Hermitian si $f(\alpha, \beta) = \overline {f(\beta, \alpha)}$ todos los $\alpha$$\beta$$V$.

Una forma de $f$ en una real o complejo espacio vectorial $V$ es positiva si $f$ es Hermitian y $f(\alpha, \alpha) > 0$ por cada $\alpha$ en $V$ que $\alpha \ne 0$.

Si $A$ $n \times n$ matriz con entradas complejas y si $A$ satisface $$\etiqueta{9.9} X^\intercal Una X > 0, \forall X \in \mathbb R^n, X \ne 0$$ we shall call $$ De un positivo de la matriz.

Lineal operador $T$ en un número finito de dimensiones interiores espacio del producto $V$ es positivo si $T=T^*$ $\langle T\alpha, \alpha \rangle > 0$ todos los $\alpha$$V$.

Aviso aquí "positivo" de la forma y el operador son definidos sobre la base conjugada transpuesta, pero positiva de la matriz se define con la transposición sólo. También, positiva tanto de la forma y el operador se define en "real o complejo" espacios vectoriales $V$,$\alpha \in V$; pero la posición de la matriz se define en el complejo espacio vectorial $V$, pero el $X$ está definido en el espacio real -- $\mathbb R^n$.

Luego me perdí como se afirma en la página 329:

En el real o complejo, una forma de $f$ es positivo si y sólo si su matriz en algunas (de hecho, cada) ordenó la base es positiva de la matriz.

Permítanme romper esta en 4 argumentos:

(1) espacio vectorial real, $f$ es una forma positiva, a continuación, $[f]_\mathcal B$ es un resultado positivo de la matriz.

(2) el espacio vectorial real, $[f]_\mathcal B$ es un resultado positivo de la matriz, a continuación, $f$ es una forma positiva.

(3) el complejo de espacio vectorial, $f$ es una forma positiva, a continuación, $[f]_\mathcal B$ es un resultado positivo de la matriz.

(4) complejo espacio vectorial, $[f]_\mathcal B$ es un resultado positivo de la matriz, a continuación, $f$ es una forma positiva.

El (1) y (3) parece aceptar; pero (2) y (4), estoy perdido: ¿cómo demostrarlo?

(1): es decir --

Deje $f$ ser una forma en un espacio vectorial real, $\mathcal B$ ordenada, y $[f]_\mathcal B$ la matriz de $f$ en base a $\mathcal B$.

$f$ es una forma positiva, o que, por definición, i) $f$ es Hermitian : $f(\alpha, \beta) = {f(\beta, \alpha)}$ todos los $\alpha$$\beta$$\mathbb R^n$, y ii) $\forall \alpha \in \mathbb R^n, \alpha\ne 0$, $f(\alpha, \alpha) > 0$.

A continuación, $[f]_\mathcal B$ es un resultado positivo de la matriz, o, por definición, $X^\intercal [f]_\mathcal B X > 0, \forall X \in \mathbb R^n, X \ne 0$.

Esto es fácil de demostrar, $\forall \alpha \in \mathbb R^n, \alpha\ne 0, f(\alpha, \alpha)>0$ directo llevar a $X^\intercal [f]_\mathcal B X >0, \forall X\in \mathbb R^n, X\ne 0$.

(3): está diciendo: --

Deje $f$ ser una forma en un complejo espacio vectorial, $\mathcal B$ ordenada, y $[f]_\mathcal B$ la matriz de $f$ en base a $\mathcal B$.

$f$ es una forma positiva, o que, por definición, i) $f$ es Hermitian : $f(\alpha, \beta) = \overline {f(\beta, \alpha)}$ todos los $\alpha$$\beta$$\mathbb C^n$, y ii) $\forall \alpha \in \mathbb C^n, \alpha\ne 0$, $f(\alpha, \alpha) > 0$.

A continuación, $[f]_\mathcal B$ es un resultado positivo de la matriz, o, por definición, $X^\intercal [f]_\mathcal B X > 0, \forall X \in \mathbb R^n, X \ne 0$.

Esto es fácil de demostrar, $\forall \alpha \in \mathbb C^n, \alpha\ne 0, f(\alpha, \alpha)>0$ directo llevar a $X^\intercal [f]_\mathcal B X >0, \forall X\in \mathbb R^n, X\ne 0$.

(4): tengo un problema para probarlo, que está diciendo: --

Deje $f$ ser una forma en un complejo espacio vectorial, $\mathcal B$ ordenada, y $[f]_\mathcal B$ la matriz de $f$ en base a $\mathcal B$.

$[f]_\mathcal B$ es un resultado positivo de la matriz, o, por definición, $X^\intercal [f]_\mathcal B X > 0, \forall X \in \mathbb R^n, X \ne 0$.

A continuación, $f$ es una forma positiva, o que, por definición, i) $f$ es Hermitian : $f(\alpha, \beta) = \overline {f(\beta, \alpha)}$ todos los $\alpha$$\beta$$\mathbb C^n$, y ii) $\forall \alpha \in \mathbb C^n, \alpha\ne 0$, $f(\alpha, \alpha) > 0$.

La prueba se hace en Hoffman página 329, que:

$\forall X, Y \in \mathbb R^n$, vamos a $Z = X + iY$, $Z\in \mathbb C^n$, and: $Z^*Z = (X+iY)^*(X+iY) = (X^\intercal - iY^\intercal)a(X+iY)$ $= X^\intercal a X + Y^\intercal a Y + i(X^\intercal Un Y - Y^\intercal Una X)$.

Si $A\in\mathbb R^{n\times n}$, $A = A^\intercal$ ,$Y^\intercal A X = X^\intercal A Y$, además, a partir de $X^\intercal AX>0, \forall X\in \mathbb R^n, X\ne 0$ se puede derivar que $Z^*A Z>0$, $\forall Z \in \mathbb C^n, Z\ne 0$.

Pero esto requiere de $A\in \mathbb R^{n\times n}$$A = A^\intercal$. Sin embargo $[f]_\mathcal B \in \mathbb C^{n\times n}$, no podemos usarlo como $A$.

Aunque no es un Eje Principal Teorema:

Para cada Hermitian forma$f$$V$, hay un ortonormales base de $V$ que $f$ está representado por una matriz diagonal con el real entradas.

Pero de nuevo, no sabemos si $[f]_\mathcal B$ es Hermitian, por lo que no se puede utilizar el Eje Principal Teorema para elegir un $\mathcal B$, de modo que $[f]_\mathcal B$ es una matriz diagonal con entradas real.

(2): también tengo problema con esto, lo que está diciendo --

Deje $f$ ser una forma en un espacio vectorial real, $\mathcal B$ ordenada, y $[f]_\mathcal B$ la matriz de $f$ en base a $\mathcal B$.

$[f]_\mathcal B$ es un resultado positivo de la matriz, o, por definición, $X^\intercal [f]_\mathcal B X > 0, \forall X \in \mathbb R^n, X \ne 0$.

A continuación, $f$ es una forma positiva, o que, por definición, i) $f$ es Hermitian : $f(\alpha, \beta) = {f(\beta, \alpha)}$ todos los $\alpha$$\beta$$\mathbb R^n$, y ii) $\forall \alpha \in \mathbb R^n$, $f(\alpha, \alpha) > 0$.

Parece i) Hermitian no puede ser probado?

En realidad Hoffman del libro mencionado anteriormente en la página 329 de que:

Si una matriz $A$ satisface (9-9), de ello no se sigue que $A = A^\intercal$.

Esto es razonable, pues se elija $A$ = $\begin{bmatrix} 1 & 0.3 \\ 0.1 & 1 \\ \end{bmatrix}$ , a continuación, para $\forall X = $ $\begin{bmatrix} x_1 \\ x_2 \\ \end{bmatrix}$, $X^\intercal a X = x_1^2 + 0.4x_1x_2 + x_2^2 = (x_1+0.2x_2)^2 + 0.96x_2^2 > 0$, but $\ne^\intercal$.

Estoy perdido aquí. ¿Por qué "positivo" de una matriz se define no se basa en "real o complejo" vector en el espacio, pero "espacio complejo"? Do (2) o (4)?

1voto

user126154 Puntos 4315

En mi opinión no es un error tipográfico, ya sea en el libro o en su "cortar y pegar". De hecho, la condición $$X^TAX>0\quad \forall X\in\mathbb R^n$$

da información sólo en la parte simétrica de $A$. En particular, usted puede agregar cualquier asimétrica de la matriz que desea y preservar la propiedad. Por ejemplo

$$A=\begin{pmatrix}1&10i\\-10i&1\end{pmatrix}$$

Es una matriz tal que $X^TAX>0$ cualquier $X\in\mathbb R^n$, y la forma que se define es hermitian pero no positivo. Por ejemplo, si $X=(1,i)$ $$X^TAX=-18$$

Esto proporciona un contraejemplo a $(4)$. Para un contraejemplo de $(2)$ tomar un simétrica positiva definida la matriz como $\begin{pmatrix}2&1\\1&2\end{pmatrix}$ y añadir una matriz antisimétrica, por ejemplo,$\begin{pmatrix}0&1\\-1&0\end{pmatrix}$, consigue $$B=\begin{pmatrix}2&2\\0&2\end{pmatrix}$$

Si $X=(x,y)$$X^TBX=2x^2+2xy+2y^2=x^2+y^2+(x+y)^2\ge 0$, lo $B$ es positivo, pero la forma que define, no es simétrica. Por ejemplo, si $V=(1,0)$ $W=(0,1)$ hemos $$V^TBW=2\qquad W^TBV=0.$$

En otras palabras, con las definiciones como está escrito en la pregunta, $(2)$ $(4)$ son falsas.

0voto

Una pista es dada en la declaración: "... su matriz en algunos..."

Ver también este post: Son positiva definida matrices necesariamente diagonalizable y cuando se hace el famoso autovalor criterio de aplicar? , especialmente el último párrafo de la aceptó respuesta.


edit 1: Tenga en cuenta que el cambio de base al referirse a la "matriz de un (sesqui-lineal) formulario" se obtiene a través de hermitian de congruencia. Por lo $A=P^*BP$ $A$ $B$ son hermitian congruentes (Nota: $P^*$ no es necesariamente la inversa de a $P$). Entonces lo que hay que demostrar es la siguiente: si una matriz $A$ es positivo, hace que implica es hermitian congruentes a un hermitian de la matriz, que es, a continuación, $[f]_{\mathcal{B}}$ para algunos es una forma positiva $f$?


edit 2: Vamos a tomar la matriz se utiliza como un ejemplo al final, hay una base: $\{(-1/\sqrt{2},1/\sqrt{2}),(i/\sqrt{2},-i/\sqrt{2})\}$ en relación a que la matriz de $A$ \begin{equation}\begin{bmatrix}4/5 & -4i/5 \\ 4i/5 & 4/5 \end {bmatrix}, \end{equation} que es claramente Hermitian. Así que si tomamos (2) - que tuvo un resultado positivo de la matriz $A$ - es congruente con la matriz por encima de la cual se hermitian y también positiva: para que haya ordenado la base en la que podemos ver que es la matriz de cierta forma positiva $f$. Este es el principio básico...así que si Hoffman la afirmación es verdadera, entonces esto siempre es cierto: por cada positivo de la matriz podemos encontrar una base, por lo que es congruente a un hermitian de la matriz. Si Hoffman alegación es falsa, usted sería capaz de encontrar algún ejemplo contrario. Lamentablemente no tengo una referencia de donde alguien ha probado esto, y por desgracia no puedo pasar más tiempo en esto ahora - tal vez alguien más puede hacerlo por usted, sino que usted va a aprender y recordar más si usted trabaja para usted mismo.

Por otra parte, en referencia a su última pregunta, un sesquilinear forma es, casualmente, dirigidos hacia el" complejo de espacio vectorial, ya que define el producto interior en el espacio complejo correctamente...normal bilineal simétrica forma de "no trabajo" como lo hace en el espacio real - necesita el "conjugado linealidad" en un solo término. Y el sesquilinear formulario que se utiliza para definir interior de los productos en el espacio complejo se reduce a la normal del producto escalar en espacios reales, por lo que es una adecuada generalización de la causa...así que creo que el contexto adecuado para los capítulos que usted está leyendo es en realidad complejo espacio vectorial.

0voto

Eoin Puntos 140

Para responder a mi propia pregunta después de leer a través de esa sección de nuevo el pasado fin de semana.

Creo Hoffman libro tiene un error tipográfico que cuando la definición positiva de la matriz:

Si $A$ $n \times n$ matriz con entradas complejas y si $A$ satisface (9.9) vamos a llamar a $A$ positivo de la matriz.

Es que en realidad se refiere a (9.8), que es $$\tag{9.8} X^* A X > 0, \forall X \in \mathbb C^n, X \ne 0$$

El razonamiento es el siguiente, donde utilizo $F$ para denotar $\mathbb R$ o $\mathbb C$, asumir todos los $X\ne 0$ con $f>0$ para denotar formas positivas, y $A>0$ para denotar positivo de la matriz.

$f_{\mathbb F}>0$ se define como $X_{\mathbb F}^*A_{\mathbb F}X_{\mathbb F}>0$$A_{\mathbb F}^* = A_{\mathbb F}$.

En $\mathbb C$ ---

$f_{\mathbb C}>0$ definición se traduce en $X_{\mathbb C}^* A_{\mathbb C} X_{\mathbb C} > 0$, ya que implica $A_{\mathbb C}^* = A_{\mathbb C}$ ya.

Por lo $A_{\mathbb C}>0$ puede ser definido como:$X_{\mathbb C}^*A_{\mathbb C}X_{\mathbb C}>0$, ya que implica $A_{\mathbb C}^\intercal = A_{\mathbb C}$.

En $\mathbb R$ ---

$f_{\mathbb R}>0$ definición se traduce en $X_{\mathbb R}^\intercal A_{\mathbb R} X_{\mathbb R} > 0$$A_{\mathbb R}^\intercal = A_{\mathbb R}$. Aviso $X_{\mathbb R}^\intercal A_{\mathbb R} X_{\mathbb R} > 0$ $\nRightarrow$ $A_{\mathbb R}^\intercal = A_{\mathbb R}$.

Sin embargo $X_{\mathbb R}^\intercal A_{\mathbb R} X_{\mathbb R} > 0$ $A_{\mathbb R}^\intercal = A_{\mathbb R}$ implican $X_{\mathbb C}^* A_{\mathbb R} X_{\mathbb C} > 0$. Por lo $A_{\mathbb R}>0$ puede ser definido como:$X_{\mathbb C}^*A_{\mathbb R}X_{\mathbb C}>0$, ya que implica $X_{\mathbb R}^\intercal A_{\mathbb R} X_{\mathbb R}>0$$A_{\mathbb R}^\intercal = A_{\mathbb R}$.

--- Por lo tanto, para $F$ como $\mathbb R$ o $\mathbb C$, $A_F>0$ puede ser definido como:$X_{\mathbb C}^* A_F X_{\mathbb C}>0$. Y $A_F>0$ fib $f_F>0$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X