11 votos

¿Hay alguna forma de saber si la reducción de una fila de una matriz se ha hecho correctamente?

Soy un estudiante de pregrado que toma la clase de "Álgebra lineal 1". Me encontré con un problema: a veces necesitamos aplicar la eliminación Gaussiana para las matrices. Muy rápidamente esta habilidad no es muy necesaria ya que no es una habilidad de pensamiento sino puramente técnica.

Sin embargo, a menudo en los exámenes hay una pregunta que requiere que se aplique la reducción de fila a una matriz.

Estoy buscando una manera de saber si la eliminación de Gauss se ha hecho correctamente, es decir, sin errores de cálculo, aparte de repasar todos los pasos y comprobar que el cálculo se ha hecho correctamente. ya que este proceso duplicará el tiempo que dedicaré a una determinada pregunta, y debido a la falta de tiempo en un gran examen del curso - que también es muy estresante - este método podría ser muy útil para mí.

nota: se nos permite usar una simple calculadora científica (no una calculadora gráfica)

5voto

freespace Puntos 9024

Sabemos que operaciones de fila elemental no cambie el espacio en fila de la matriz. Y si una matriz está en rref entonces es relativamente fácil comprobar si un vector pertenece al espacio de la fila.

Así que supongamos que tienes una matriz $A$ y una matriz de escalón reducido $B$ . Si $R_A$ y $R_B$ son espacios en fila, puedes comprobar fácilmente si $R_A \subseteq R_B$ . Por supuesto, esto es sólo "la mitad" 1 de la verificación de si $R_A=R_B$ que es equivalente a $A \sim B$ .


Ejemplo. Supongamos que tengo una matriz $$A= \begin {pmatrix} 1 & 1 & 1 & 2 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 1 & 2 & 1 & 1 \\ \end {pmatrix}.$$

Y que después de la eliminación gaussiana me toca a mí: $$B= \begin {pmatrix} 1 & 0 & 0 & 1 \\ 0 & 1 & 0 &-1 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 0 \\ \end {pmatrix} $$

Para comprobar si $R_A \subseteq R_B$ basta con comprobar si cada fila de $A$ es una combinación lineal de $(1,0,0,1)$ , $(0,1,0,-1)$ y $(0,0,1,2)$ es decir, si es de la forma $c_1(1,0,0,1)+c_2(0,1,0,-1)+c_3(0,0,1,2)$ . Pero como estos vectores son muy simples, podemos ver que en coordenadas donde hay pivotes tenemos $c_1$ , $c_2$ y $c_3$ . Así que es fácil encontrar coeficientes.

Probemos con la cuarta fila: $(1,2,1,1)$ . Miramos las tres primeras coordenadas. (Esas son las coordenadas con los pivotes.) Y comprobamos si $$( \boxed {1}, \boxed {2}, \boxed {1},1)= 1 \cdot (1,0,0,1)+2 \cdot (0,1,0,-1)+1 \cdot (0,0,1,2) $$ Vemos que esto es cierto. Si lo mismo funciona para cada fila de $A$ esto muestra que $R_A \subseteq R_B$ .

Déjeme intentar ahora otro ejemplo donde yo cometer un error a propósito para ver cómo encontrar el error. $$ \begin {pmatrix} 1 & 1 & 1 & 2 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 1 & 2 & 1 & 1 \\ \end {pmatrix} \overset {(1)} \sim \begin {pmatrix} 0 & 0 & 1 & 1 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 1 & 2 & 1 & 1 \\ \end {pmatrix} \overset {(2)} \sim \begin {pmatrix} 0 & 0 & 1 & 1 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 2 & 0 & 0 \\ \end {pmatrix} \overset {(3)} \sim \begin {pmatrix} 0 & 0 & 1 & 1 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ \end {pmatrix} \overset {(4)} \sim \begin {pmatrix} 0 & 0 & 1 & 1 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ \end {pmatrix} \overset {(5)} \sim \begin {pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ \end {pmatrix} $$

Podemos comprobar que $$(1,1,1,2) \ne 1 \cdot (1,0,0,0)+1 \cdot (0,1,0,0)+1 \cdot (0,0,1,1).$$

Incluso puedo hacer la misma verificación para la matriz después de cada paso. Por ejemplo, para la matriz después del paso $(2)$ es decir.., $ \begin {pmatrix} 0 & 0 & 1 & 1 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 2 & 0 & 0 \\ \end {pmatrix}$ todo funciona. Así que algún error debe ser antes de este paso.


Subrayaré una vez más que esto es sólo a mitad de camino verificación. Sólo he comprobado $R_A \subseteq R_B$ pero no $R_B \subseteq R_A$ .

Así que es posible que cometa un error que no note de esta manera. Aquí hay un ejemplo (bastante ingenuo)

$$ \begin {pmatrix} 1 & 1 & 1 & 2 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 1 & 2 & 1 & 1 \\ \end {pmatrix} \sim \begin {pmatrix} 1 & 1 & 1 & 2 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 0 &-1 \\ \end {pmatrix} \sim \begin {pmatrix} 1 & 1 & 1 & 2 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 0 & 1 \\ \end {pmatrix} \sim \begin {pmatrix} 1 & 1 & 1 & 0 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ \end {pmatrix} \sim \begin {pmatrix} 1 & 0 & 0 & 0 \\ 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ \end {pmatrix} \sim \begin {pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ \end {pmatrix} $$

El control de la cordura descrito anteriormente funciona. (Comprobamos que $R_A \subseteq R_B$ lo cual es cierto.) Pero el resultado es incorrecto.


Si quiero poder comprobar ambas inclusiones y además poder hacer una comprobación después de cada paso, puedo usar la matriz extendida. (Pero esto es mucho más trabajo.)

En nuestro ejemplo haría lo siguiente $$ \left ( \begin {array}{cccc|cccc} 1 & 1 & 1 & 2 & 1 & 0 & 0 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 1 & 2 & 1 & 1 & 0 & 0 & 0 & 1 \\ \end {array} \right ) \sim \left ( \begin {array}{cccc|cccc} 0 & 0 & 1 & 2 & 1 &-1 & 0 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 0 &-1 & 1 \\ \end {array} \right ) \sim \left ( \begin {array}{cccc|cccc} 0 & 0 & 1 & 2 & 1 &-1 & 0 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 &-1 &-1 & 1 \\ \end {array} \right ) \sim \left ( \begin {array}{cccc|cccc} 1 & 1 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 1 & 2 & 1 &-1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 &-1 &-1 & 1 \\ \end {array} \right ) \sim \left ( \begin {array}{cccc|cccc} 1 & 0 &-1 &-1 & 0 & 1 &-1 & 0 \\ 0 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 1 & 2 & 1 &-1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 &-1 &-1 & 1 \\ \end {array} \right ) \sim \left ( \begin {array}{cccc|cccc} 1 & 0 & 0 & 1 & 1 & 0 &-1 & 0 \\ 0 & 1 & 0 &-1 &-1 & 1 & 1 & 0 \\ 0 & 0 & 1 & 2 & 1 &-1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 &-1 &-1 & 1 \\ \end {array} \right ) $$ Ahora los cuatro números de la derecha son coeficientes que me dicen cómo obtener esta fila como una combinación lineal de la matriz lineal. Por ejemplo, si miro la primera fila, puedo comprobar que $$1 \cdot (1,1,1,2)-1 \cdot (0,1,1,1)=(1,0,0,1).$$ Haciendo una verificación similar para cada uno puedo probar que $R_A \subseteq R_B$ .

Fíjese que también puedo hacer esto a mitad de la computación. Por ejemplo, si miro la última fila de la tercera matriz, tengo allí $$ \left ( \begin {array}{cccc|cccc} 0 & 0 & 0 & 0 & 0 &-1 &-1 & 1 \\ \end {array} \right )$$ Y puedo comprobar que $$-1 \cdot (1,1,0,0)-1 \cdot (0,1,1,1)+1 \cdot (1,2,1,1)=(0,0,0,0).$$


1 Esto es similar al consejo dado en el comentario. Si se utiliza la eliminación gaussiana para resolver un sistema lineal, se puede comprobar si la solución obtenida es realmente una solución. Pero todavía es posible que no tengas todos soluciones. Así que esto es sólo un "medio chequeo".

1voto

Omegatron Puntos 101

El algoritmo real para la Eliminación Gaussiana se ve así. enter image description here

Respondí a una respuesta similar mostrando cómo realizar la descomposición de LU que es la Eliminación Gaussiana sin pivotando El propósito es poner a cero la fila de abajo con $ \ell_ {jk}$ . Es por eso que tienes la operación de abajo $ u_{j,k:m} = u_{j,k:m} - \ell_ {jk} u_{k,k:m}$ Es restar la proporción que acabas de calcular.

Lo que dio lugar a esto.

Supongamos que

$$ A = \begin {bmatrix} 1 & 1 & 1 \\ 3 & 5 & 6 \\ -2 & 2 & 7 \end {bmatrix} $$ $$ A = LU $$

$$ U =A, L=I$$ $$ k=1,m=3,j=2$$ $$ \ell_ {21} = \frac {u_{21}}{u_{11}} = \frac {a_{21}}{a_{11}} = 3 $$ $$ u_{2,1:3} = u_{2,1:3} - 3 \cdot u_{1,1:3} $$ Entonces vamos a restar 3 veces la primera fila de la segunda fila $$ \begin {bmatrix} 3 & 5 & 6 \end {bmatrix} - 3 \cdot \begin {bmatrix} 1 & 1 & 1 \end {bmatrix} = \begin {bmatrix} 0 & 2 & 3 \end {bmatrix} $$ Actualizando cada uno de ellos $$U = \begin {bmatrix} 1 & 1 & 1 \\ 0 & 2 & 3 \\ -2 & 2 & 7 \end {bmatrix} $$ $$ L = \begin {bmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ 0 & 0 & 1 \end {bmatrix} $$ $$k=1,j=3,m=3 $$ $$ \ell_ {31} = \frac {u_{31}}{u_{11}} = \frac {-2}{1} = -2 $$ $$ u_{3,1:3} = u_{3,1:3} +2 \cdot u_{1,1:3} $$ Luego añadimos dos veces la primera fila a la tercera fila $$ \begin {bmatrix} -2 & 2 & 7 \end {bmatrix} + 2 \cdot \begin {bmatrix} 1 & 1& 1 \end {bmatrix} = \begin {bmatrix}0 & 4 & 9 \end {bmatrix} $$ Actualización $$ U = \begin {bmatrix} 1 & 1 & 1 \\ 0 & 2 & 3 \\ 0 & 4 & 9 \end {bmatrix} $$ $$ L = \begin {bmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ -2 & 0 & 1 \end {bmatrix} $$ $$ k=2, j=3,m=3 $$ $$ \ell_ {32} = \frac {u_{32}}{u_{22}} = \frac {4}{2} = 2$$ Estamos restando pequeños bloques $$ u_{3,2:3} = u_{3,2:3} - 2 \cdot u_{2,2:3} $$ $$ \begin {bmatrix} 4 & 9 \end {bmatrix} - 2 \cdot\begin {bmatrix} 2& 3 \end {bmatrix} = \begin {bmatrix} 0 & 3 \end {bmatrix} $$ Actualización $$ U = \begin {bmatrix} 1 & 1 & 1 \\ 0 & 2 & 3 \\ 0 & 0 & 3 \end {bmatrix} $$ $$ L = \begin {bmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ -2 & 2 & 1 \end {bmatrix} $$ Ahora termina $$ A = LU $$ $$ \underbrace { \begin {bmatrix} 1 & 1 & 1 \\ 3 & 5 & 6 \\ -2 & 2 & 7 \end {bmatrix}}_{A} = \underbrace { \begin {bmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ -2 & 2 & 1 \end {bmatrix}}_{L} \underbrace { \begin {bmatrix} 1 & 1 & 1 \\ 0 & 2 & 3 \\ 0 & 0 & 3 \end {bmatrix}}_{U} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X