4 votos

Puede un no singular de la matriz de orden $k\times k$ ser cambiado en singular por el cambio de exactamente un elemento, o viceversa?

$1$)$A$ es un hecho que no singular matriz cuadrada. Puede cambiar de un elemento que puede hacer es singular? O $2$) si $A$ fueron singular puede cambiar de un elemento que podría hacer es no singular?

Para $1$) estaba pensando que la reducción escalonada de $A$,dicen $E$ ($E$=$E_{1}E_{2}E_{3}.....E_{n}A$), debe de identidad, por lo que el cambio sólo una $1$ $0$haría singular $\bar E$. Pero entonces , ¿eso significa que la alteración en sólo un elemento de la matriz original cuando la misma fila operaciones son invertidos en la nueva matriz i.e ${E_{n}}^{-1}.....{E_{1}}^{-1}\bar E = \bar A$ es singular, pero no $A$ $\bar A$ diferir por un solo elemento?

Para $2$) Puede estar equivocado, pues en este caso uno o más filas cero filas por lo que poner una crucial $1$ en cada fila va a hacer es no-singular y revertir la fila de operaciones va a dar un no-singular de la matriz.Pero el mismo problema . Cómo muchos de los elementos originales están alterados? Si la RRE forma tenía más de $1$ cero filas, entonces creo que no es sólo $1$ elemento.

Voy en la dirección correcta o totalmente desordenado?

Gracias por las respuestas @Servaes y @Dustan Lavenstein. Esos eran realmente útiles. Puede alguien por favor, arrojar algo de luz sobre el proceso que yo estaba tratando ? Puede que la respuesta se obtiene de esa forma ,especialmente para la primera pregunta? Gracias.

9voto

A.G. Puntos 7303
  1. Su método para obtener un singular de la matriz en la primera pregunta, no va a funcionar. Por ejemplo, usted tiene matriz identidad como $I=EA$ donde $E$ es el producto de todas las operaciones elementales con sus filas. Esto significa que $E^{-1}=A$ y después de la pre-multiplicando con ello, que, básicamente, de identidad,$A=A\cdot I$. Luego de cambiar de una unidad en la matriz de identidad a cero, pero esto se convierte en el conjunto de la columna en el nuevo $A$ a cero. $$ A=\left[\matriz{a & b\\ c & d}\right], \qquad \left[\matriz{a & b\\ c & d}\right]\left[\matriz{1 & 0\\ 0 & 0}\a la derecha]=\left[\matriz{a & 0\\ c & 0}\right]. $$ Una forma correcta de hacer la matriz singular cambiando un elemento sólo es para ver el efecto de este elemento, decir $x$, en el factor determinante. Utilizando el cofactor de la expansión del determinante a lo largo de la fila que contiene el elemento $x$ obtenemos $n$ términos, de los cuales uno es "$x$ veces el cofactor de a $x$" y todos los demás no dependen $x$, es decir, $$ \det a=ax+b $$ donde $a$ es el cofactor y $b$ es una constante. Si $a\ne 0$ el determinante se puede poner a cero mediante el establecimiento $x=-\frac{b}{a}$. Si $a=0$ luego tomamos otro elemento en la fila. Claramente algunos elementos de la fila debe tener distinto de cero cofactor. Si todos los cofactores en la fila de ceros, entonces llegamos a la conclusión de la misma expansión que $\det A=0$, lo que contradice la suposición de que $A$ es no singular.
  2. En su segunda pregunta, usted puede tomar un cero de la matriz como un contraejemplo.

P. S. en cuanto a la primera pregunta, hemos demostrado una fuerte demanda. Hemos demostrado que un no-singular de la matriz puede ser hecho singular por cambiar un solo elemento en una pre-definido fila (o columna).

4voto

Spencer Puntos 48

Para 2 ($A$ singular), la respuesta es SÍ iff $rank(A)=k-1$.

Prueba. Deje $A=[a_{k,l}]$; si cambiamos $a_{i,j}$$a_{i,j}+x$, $A$ hace $A_{x,i,j}$. A continuación,$\det(A_{x,i,j})=cofactor(a_{i,j})x+\det(A)$.

$(\Rightarrow)$ Aquí $\det(A)=0$ e no es $(i,j),x$ s.t. $\det(A_{x,i,j})\not= 0$. Por lo tanto $cofactor(a_{i,j})\not= 0$$rank(A)=k-1$.

$(\Leftarrow)$ Hay $(i,j)$ s.t. $cofactor(a_{i,j})\not= 0$; por lo tanto $\det(A_{x,i,j})=cofactor(a_{i,j})x$ y elegimos cualquier $x\not= 0$.

Para 1 ($A$ es invertible) La respuesta es SÍ para cada $A\in GL_k$.

Prueba. No es $(i,j)$ s.t. $cofactor(a_{i,j})\not= 0$. A continuación, tome $x=\dfrac{-\det(A)}{cofactor(a_{i,j})}$.

2voto

user30382 Puntos 48

Si su base es de campo algebraicamente cerrado (por ejemplo,$\Bbb{C}$), entonces la respuesta es sí:

Un $k\times k$-de la matriz es singular si y sólo si su determinante es cero. El determinante es un (grado-$k$) polinomio sobre la base de campo en términos de la $k^2$ entradas. Dejando una entrada de la matriz de variables y de todos los demás fija por lo tanto los rendimientos de un polymial en una variable sobre la base de campo, que sin duda tiene una raíz si la base es de campo algebraicamente cerrado. Esto significa que para cualquier no-singular $k\times k$-matriz, cualquier entrada puede ser modificado para hacer la matriz singular. Por otra parte, en general no se $k$ diferentes valores de esta entrada haciendo que la matriz singular.

A la inversa, sin embargo, no es cierto. Si la matriz tiene dos filas o columnas, que son todos ceros, entonces el cambio de sólo una entrada va a salir de la matriz singular. Así que tu idea para la segunda pregunta es correcta. Tomemos, por ejemplo, $$A=\begin{pmatrix} 0 & 0 \\ 0 & 0\end{pmatrix}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X