5 votos

¿Cómo definir columnas dinámicas?

Cuando se utiliza la eliminación Gaussiana para resolver un sistema de ecuaciones lineales homogéneo, acabará con el "pivote variables" y "no-pivote variables". La no-pivote variables tienen la propiedad de que cada uno puede ser elegido libremente, y una vez especificado, sirven exclusivamente para determinar una solución de la ecuación.

Estoy buscando una caracterización de estas variables libres que depende del operador $A$ y la elección de la base $\{b_i\}$ pero no hace referencia a la eliminación Gaussiana proceso en sí.

Por ejemplo, usted podría mirar a la ecuación de $x_1 + x_2 + x_3 = 0$ y determinar que dos de las variables puede ser elegido libremente y únicamente determinan la tercera, mientras que una variable es insuficiente y tres variables es demasiado numerosos para ser elegido libremente.

Para otro ejemplo, tome $$x_0 + x_1 + x_2 = 0\\ x_0 + x_3 + x_4 = 0.$$

El conjunto $\{x_0, x_2,x_3\}$ se compone de variables que pueden ser elegidos libremente y de forma exclusiva de determinar una solución. En contraste, $\{x_0,x_1,x_2\}$ no puede ser elegido libremente, a pesar de tener tres variables.

Mi objetivo es encontrar una prueba que puede identificar que los conjuntos de variables de forma única y libremente determinar una solución. Mi punto de partida es la eliminación Gaussiana, donde la no-pivote de filas a mostrar uno de esos subconjunto de variables. Me gustaría ser capaz de caracterizar todos estos conjuntos de variables, sin referencia a la eliminación Gaussiana.


Aquí está mi intento.
  • Deje $A$ ser una matriz con base $B=\{x_1,\ldots,x_m\}$.
  • Reducir el $A$ usando eliminación Gaussiana. Deje $N$ ser la submatriz de a$\text{rref}(A)$ consistente en la no-pivote columnas. Creo $N$ es equivalente a la del núcleo mapa para $A$ expresado en nuestra base, en cuyo caso puede definirse sin hacer referencia al proceso de eliminación—¿es eso cierto?
  • Considerar un subconjunto de las variables de $E\equiv \{e_1,\ldots, e_d\}\subseteq \{x_1,\ldots,x_m\}$. Estas variables podrían tener la propiedad deseada o no.
  • Para determinar si $E$ tiene la propiedad deseada (es decir, las variables de $E$ puede ser elegido libremente, y cuando ellos son los elegidos, sirven exclusivamente para determinar una solución de la ecuación homogénea.), considerar el lineal mapa de $Q:\mathbb{R}^d \hookrightarrow \mathbb{R}^m$ inducida por la inclusión de $E$ a $B$. El requisito es que $QN$ es el mapa de identidad $I_{d\times d}$. (O tal vez sólo que $QN$ es invertible.)
  • Tengo esta definición tratando de formalizar la idea de que cada base de vectores en $E$ cumple (tiene un valor distinto de cero punto producto con) las columnas de la nulos de la matriz en exactamente un único lugar. Es decir, se forma una especie de identidad de la sub matriz. Porque cumple con cada vector exactamente una vez, sabemos que las variables pueden ser elegidos libremente y de forma exclusiva de determinar una solución.

Esto es correcto? Existe una mejor formulación? Gracias por tu ayuda.






P. S. Por ejemplo de cómo aplicar este método, considere los siguientes problemas independientes $A_1 = [1,1]$, frente a $A_2 = [1,0]$. Cada uno de estos problemas es un sistema con dos variables y una ecuación de $(A : \mathbb{R}^m\rightarrow \mathbb{R}^n$ con $m=2$, $n=1$). Cada uno tiene un uno-dimensional del espacio de soluciones (la nulidad de la $A$ es $d=1$).

Nuestra base de variables de $B$ consiste en el estándar de los vectores de la base. Cualquier conjunto de $d=1$ vectores (es decir, el singleton conjuntos de $\{e_1\}$, $\{e_2\}$) es un candidato para ser un completo conjunto de variables libres. Para ponerlos a prueba, consideramos que las inclusiones de $e_1$ o $e_2$ de $\mathbb{R}^m \hookrightarrow \mathbb{R}^d$:

$$E_1 = \begin{bmatrix}1 & 0\end{bmatrix}$$ $$E_2 = \begin{bmatrix}0 & 1\end{bmatrix}$$

Vamos a necesitar el kernel de mapas de $A_1$ e $A_2$. Estos son los mapas de $\mathbb{R}^d\rightarrow \mathbb{R}^m$.

El núcleo de las matrices de $A_1$ e $A_2$ son, respectivamente:

$$K_1 = \begin{bmatrix}1\\ -1\end{bmatrix}\qquad u\mapsto \langle u,-u\rangle$$

$$K_2 = \begin{bmatrix}0 \\ 1\end{bmatrix}\qquad v \mapsto \langle 0, v\rangle$$

Cuando ponemos a prueba si $E_1$ e $E_2$ son variables libres de la primera matriz, podemos encontrar:

$$E_1K_1 = [1]\\ E_2K_1 = [-1]$$

Mientras que para la segunda matriz, podemos encontrar:

$$E_1K_2 = [0]\\ E_2K_2 = [1]$$

Mediante el examen de la cual de estos es invertible transformación de $\mathbb{R}^d\rightarrow \mathbb{R}^d$, hemos determinado que $\{e_1\}$ e $\{e_2\}$ se completa únicos conjuntos de variables para el primer sistema de $A_1$, pero sólo $\{e_2\}$ es una completa único conjunto de variables para el segundo sistema de $A_2$.

0voto

user326210 Puntos 26
  • Deje $A$ ser $n \times m$ matriz que representa el sistema de ecuaciones $A\vec{x}=\vec{0}$.
  • Encontrar la base para la nullspace de $A$ en la forma estándar: la forma aumentada matriz cuadrada $[A^T | I_{m}]$ y realizar Gauss-Jordan eliminación, dando algún resultado $[M | N] $. Las filas de $N$ que siga cero filas de $M$ constituyen una base para la nullspace de $A$. Llamada que submatriz $N^\prime$.
  • Si $A$ es $n\times m$ de la matriz, a continuación, $N^\prime$ es $d\times m$ matriz, donde $d$ es la nulidad de $A$.
  • Teorema: Seleccione el $d$ columnas de $N^\prime$. Las columnas son linealmente independientes si y sólo si el $d$ variables son un conjunto mínimo única que determina una solución a la ecuación de $A\vec{x}=\vec{0}$. (Y porque $m$ es el número de variables en el problema, todos estos conjuntos se pueden encontrar en esta manera.)
  • Prueba: en Primer lugar, vamos a establecer la unicidad, a continuación, minimality.

    La singularidad. El elegido columnas de $N^\prime$ comprenden una $d\times d$ matriz $D$. Si las columnas de a$D$ son linealmente independientes, entonces $D$ es invertible (inyectiva). $D$ representa una transformación de la $d$ parámetros del espacio nulo para el conjunto específico de $d$ variables seleccionadas para $D$.

    Para ver esto, observe que $D$ es una composición de la $d\times m$ matriz $E$ formado por la elección de $d$ filas de la matriz de identidad $I_m$, y el de la matriz $N^\prime$. El compuesto $D=EN^\prime$ por lo tanto, representa una transformación de la $d$ variables del espacio nulo a la $m$ originales de las variables de un completo, se determina únicamente la solución, luego olvidar (quotienting todas pero $d$ de esas variables originales. Si este proceso es reversible, entonces el $d$ originales de las variables que pueden asignarse a la $d$ parámetros del espacio nulo, lo que, a continuación, únicamente determinan una solución, porque la $N^\prime$ es una base.

    Minimality. El espacio nulo (espacio de soluciones) ha $d$ dimensiones; por lo tanto tarda $d$ independiente de los parámetros para determinar una solución. Así que si un conjunto de $d$ variables únicamente determina una solución, que es mínima.

  • Y de este teorema es independiente de la de Gauss-Jordan proceso de eliminación: a Pesar de que hemos utilizado de Gauss-Jordan eliminación para encontrar $N^\prime$, que no necesitan. $N^\prime$ es una representación del núcleo mapa de el operador $A$, la cual es definida de forma única independiente de la base. La base (selección de variables) sólo se utiliza para definir la "columna de la elección de" matrices de $E$, que son de base quedependen de las asignaciones del conjunto original de variables.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X