6 votos

Que $A_{j,k} = \langle x_j, x_k\rangle$. Mostrar $A$ es invertible si y sólo si $x_1, \ldots, x_n$ son linealmente independientes.

Que $V$ ser un espacio del vector sobre $\mathbb C$ % del producto interno $\langle, \rangle$y que $x_1, \ldots, x_n$ vectores en $V$.

Considerar la $n \times n$-matriz $A$ $A_{j,k} = \langle x_j, x_k\rangle$ de las entradas.

Quiero mostrar que $A$ es invertible si y sólo si $x_1, \ldots, x_n$ son linealmente independientes.

Sé que orthogonal vectores son linealmente independientes, por lo que si $x_1, \ldots, x_n$ donde ortogonales el resultado se prueba fácilmente. Sin embargo, el caso general estoy atrapado en el.

6voto

Algebraic Pavel Puntos 11952

Con el fin de simplificar la notación, establezca $A_{jk}=\langle x_k,x_j\rangle$ lugar. Desde $A$ es Hermitian, realmente no importa. Si usted insiste en el uso de "su" $A$, simplemente reemplace $A$ $\bar{A}$ en todas partes.

Deje $y:=[\eta_1,\ldots,\eta_n]^T$ denotar un vector en $\mathbb{C}^n$. Deje $x_1,\ldots,x_n$ es linealmente dependiente. Luego de algunos $y\in\mathbb{C}^n\setminus\{0\}$, $\eta_1x_1+\cdots+\eta_nx_n=0$. La fabricación de productos con $x_j$ da $$ \eta_1\langle x_1,x_j\rangle+\cdots+\eta_n\langle x_n,x_j\rangle=0, \quad j=1,\ldots,n, $$ que es equivalente a $Ay=0$. Desde $y\neq 0$, se deduce que el $A$ es singular.

Tenga en cuenta que $$\tag{$*$}\langle\eta_1x_1+\cdots+\eta_nx_n,\eta_1x_1+\cdots+\eta_nx_n\rangle =\sum_{i,j=1}^n\eta_i\bar{\eta_j}\langle x_i,x_j\rangle=y^*Ay$$ es cero si y sólo si $\eta_1x_1+\cdots+\eta_nx_n=0$ (debido a que el lado izquierdo de ($*$) es el cuadrado de la norma inducida por el producto interior). Si $A$ es singular, de nuevo, es distinto de cero $y$ tal que $Ay=0$. Por lo tanto, $y^*Ay=0$ y el uso de ($*$) se deduce que $x_1,\ldots,x_n$ son linealmente dependientes.

5voto

Anthony Shaw Puntos 858

Sea $$ B =\begin{bmatrix} x_{1,1}&x_{2,1}&x_{3,1}&\cdots&x_{n,1}\\ x_{1,2}&x_{2,2}&x_{3,2}&\cdots&x_{n,2}\\ x_{1,3}&x_{2,3}&x_{3,3}&\cdots&x_{n,3}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ x_{1,n}&x_{2,n}&x_{3,n}&\cdots&x_{n,n}\\ \end{bmatrix} $$ en la columna de $k^{\text{th}}$ es $x_k$. Entonces $ A = B ^ T\overline {B} $$ tenemos $$ A\overline {x} = 0\implies B ^ T\overline {Bx} = 0\implies x ^ TB ^ T\overline {Bx} = 0\implies Bx = 0 $ y $$ Bx = 0\implies B ^ T\overline {Bx} = 0\implies A\overline {x} = 0 $$ así, $A\overline{x}=0\iff Bx=0$; es decir, $A$ es singular si y sólo si las columnas de $B$ son dependientes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X