Cuando se utiliza la eliminación Gaussiana para resolver un sistema de ecuaciones lineales homogéneo, acabará con el "pivote variables" y "no-pivote variables". La no-pivote variables tienen la propiedad de que cada uno puede ser elegido libremente, y una vez especificado, sirven exclusivamente para determinar una solución de la ecuación.
Estoy buscando una caracterización de estas variables libres que depende del operador $A$ y la elección de la base $\{b_i\}$ pero no hace referencia a la eliminación Gaussiana proceso en sí.
Por ejemplo, usted podría mirar a la ecuación de $x_1 + x_2 + x_3 = 0$ y determinar que dos de las variables puede ser elegido libremente y únicamente determinan la tercera, mientras que una variable es insuficiente y tres variables es demasiado numerosos para ser elegido libremente.
Para otro ejemplo, tome $$x_0 + x_1 + x_2 = 0\\ x_0 + x_3 + x_4 = 0.$$
El conjunto $\{x_0, x_2,x_3\}$ se compone de variables que pueden ser elegidos libremente y de forma exclusiva de determinar una solución. En contraste, $\{x_0,x_1,x_2\}$ no puede ser elegido libremente, a pesar de tener tres variables.
Mi objetivo es encontrar una prueba que puede identificar que los conjuntos de variables de forma única y libremente determinar una solución. Mi punto de partida es la eliminación Gaussiana, donde la no-pivote de filas a mostrar uno de esos subconjunto de variables. Me gustaría ser capaz de caracterizar todos estos conjuntos de variables, sin referencia a la eliminación Gaussiana.
Aquí está mi intento.
- Deje $A$ ser una matriz con base $B=\{x_1,\ldots,x_m\}$.
- Reducir el $A$ usando eliminación Gaussiana. Deje $N$ ser la submatriz de a$\text{rref}(A)$ consistente en la no-pivote columnas. Creo $N$ es equivalente a la del núcleo mapa para $A$ expresado en nuestra base, en cuyo caso puede definirse sin hacer referencia al proceso de eliminación—¿es eso cierto?
- Considerar un subconjunto de las variables de $E\equiv \{e_1,\ldots, e_d\}\subseteq \{x_1,\ldots,x_m\}$. Estas variables podrían tener la propiedad deseada o no.
- Para determinar si $E$ tiene la propiedad deseada (es decir, las variables de $E$ puede ser elegido libremente, y cuando ellos son los elegidos, sirven exclusivamente para determinar una solución de la ecuación homogénea.), considerar el lineal mapa de $Q:\mathbb{R}^d \hookrightarrow \mathbb{R}^m$ inducida por la inclusión de $E$ a $B$. El requisito es que $QN$ es el mapa de identidad $I_{d\times d}$. (O tal vez sólo que $QN$ es invertible.)
- Tengo esta definición tratando de formalizar la idea de que cada base de vectores en $E$ cumple (tiene un valor distinto de cero punto producto con) las columnas de la nulos de la matriz en exactamente un único lugar. Es decir, se forma una especie de identidad de la sub matriz. Porque cumple con cada vector exactamente una vez, sabemos que las variables pueden ser elegidos libremente y de forma exclusiva de determinar una solución.
Esto es correcto? Existe una mejor formulación? Gracias por tu ayuda.
P. S. Por ejemplo de cómo aplicar este método, considere los siguientes problemas independientes $A_1 = [1,1]$, frente a $A_2 = [1,0]$. Cada uno de estos problemas es un sistema con dos variables y una ecuación de $(A : \mathbb{R}^m\rightarrow \mathbb{R}^n$ con $m=2$, $n=1$). Cada uno tiene un uno-dimensional del espacio de soluciones (la nulidad de la $A$ es $d=1$).
Nuestra base de variables de $B$ consiste en el estándar de los vectores de la base. Cualquier conjunto de $d=1$ vectores (es decir, el singleton conjuntos de $\{e_1\}$, $\{e_2\}$) es un candidato para ser un completo conjunto de variables libres. Para ponerlos a prueba, consideramos que las inclusiones de $e_1$ o $e_2$ de $\mathbb{R}^m \hookrightarrow \mathbb{R}^d$:
$$E_1 = \begin{bmatrix}1 & 0\end{bmatrix}$$ $$E_2 = \begin{bmatrix}0 & 1\end{bmatrix}$$
Vamos a necesitar el kernel de mapas de $A_1$ e $A_2$. Estos son los mapas de $\mathbb{R}^d\rightarrow \mathbb{R}^m$.
El núcleo de las matrices de $A_1$ e $A_2$ son, respectivamente:
$$K_1 = \begin{bmatrix}1\\ -1\end{bmatrix}\qquad u\mapsto \langle u,-u\rangle$$
$$K_2 = \begin{bmatrix}0 \\ 1\end{bmatrix}\qquad v \mapsto \langle 0, v\rangle$$
Cuando ponemos a prueba si $E_1$ e $E_2$ son variables libres de la primera matriz, podemos encontrar:
$$E_1K_1 = [1]\\ E_2K_1 = [-1]$$
Mientras que para la segunda matriz, podemos encontrar:
$$E_1K_2 = [0]\\ E_2K_2 = [1]$$
Mediante el examen de la cual de estos es invertible transformación de $\mathbb{R}^d\rightarrow \mathbb{R}^d$, hemos determinado que $\{e_1\}$ e $\{e_2\}$ se completa únicos conjuntos de variables para el primer sistema de $A_1$, pero sólo $\{e_2\}$ es una completa único conjunto de variables para el segundo sistema de $A_2$.