Yo estaba pensando acerca de este problema:
Puede cada nonsingular $n\times n$ matriz real con las entradas de hacerse singular cambiando exactamente una entrada?
Gracias por ayudarme.
Yo estaba pensando acerca de este problema:
Puede cada nonsingular $n\times n$ matriz real con las entradas de hacerse singular cambiando exactamente una entrada?
Gracias por ayudarme.
Si $a$ es un nonsingular matriz con filas de $r_1,r_2,\ldots,r_n$, entonces $\{r_2,\ldots,r_n\}$ se extiende por un $(n-1)$-dimensional subespacio $P$ de $\mathbb R^n$. Al menos uno de los estándar de los vectores de la base $e_1,e_2,\ldots,e_n$ no $P$, digamos $e_i$. Entonces $\{e_i,r_2,r_3,\ldots,r_n\}$ es una base de $\mathbb R^n$, y de ello se sigue que existe un número real $c$ tales que $r_1-ce_i$ es $P$. La matriz $A'$, con filas de $(r_1-ce_i),r_2,r_3,\ldots,r_n$ es singular, y se obtiene a partir de $Un$ restando $c$ a partir de la entrada en la primera fila y $i^\text{th}$ columna.
He aquí una manera de reformular esta un poco más geométricamente. El subespacio $P$ es un hyperplane que divide a $\mathbb R^n$ en dos la mitad de los espacios, y $r_1$ encuentra en una de estas mitades. La línea a través de $r_1$ en la dirección de un vector $v$ tiene la forma $\{r_1+tv:t\in\mathbb R\}$. Esta línea es paralela a $P$ sólo si $v$ es $P$; de lo contrario, la línea atraviesa $P$. Desde $P$ no puede ser paralelo a todas las direcciones coordenadas (o, de lo contrario se podrían llenar todos los de $\mathbb R^n$), debe haber una línea de la forma $\{r_1+te_i:t\in\mathbb R\}$ que cruza $P$, donde $e_i$ es el estándar de la base de vectores con un $1$ en la $i^\text{th}$ posición y $0$s en otros lugares. Esto significa que no existe $t_0\in \mathbb R$ tales que $r_1+t_0e_i\en P$. Y luego, dependencia lineal de los vectores de $r_1+t_0e_i,r_2,\ldots,r_n$ significa que la matriz con las filas es singular.
El determinante es un polinomio lineal en cualquier entrada dada, así que sí.
A ver que $$\det\begin{pmatrix} a_{11} & \cdots & a_{1n}\\ \vdots & \ddots & \vdots\\ a_{n1} & \cdots & a_{nn}\end{pmatrix}$$ depende linealmente de $a_{k\ell}$ para cualquier $k$ y $\ell$, tenga en cuenta que $$\det\begin{pmatrix} a_{11} & \cdots & a_{1n}\\ \vdots & \ddots & \vdots\\ a_{n1} & \cdots & a_{nn}\end{pmatrix}=\sum_{\sigma\en S_n}\operatorname{sgn}(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}=\sum_{\substack{\sigma\en S_n\\ \sigma(k)=\ell}}\operatorname{sgn}(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}+\sum_{\substack{\sigma\en S_n\\ \sigma(k)\neq \ell}}\operatorname{sgn}(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}$$ $$=\left(\sum_{\substack{\sigma\en S_n\\ \sigma(k)=\ell}}\operatorname{sgn}(\sigma)\prod_{\substack{i=1\\i\neq k}}^n a_{i,\sigma(i)}\right)a_{k\ell} + \left(\sum_{\substack{\sigma\en S_n\\ \sigma(k)\neq \ell}}\operatorname{sgn}(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}\right)$$ Como JeffE acertadamente señala a continuación, de que el coeficiente de $a_{k\ell}$ en la expresión anterior es 0, y que por lo tanto variando el valor de $a_{k\ell}$ y no voy a cambiar el determinante. Yo no veo ninguna manera de garantizar que no va a suceder, pero podemos demostrar que, dado un $\ell$, esto no puede suceder por cada $k$: si lo hizo, entonces la variación de la columna completa $$A_\ell=\begin{pmatrix} a_{1\ell} \\ \vdots \\ a_{n\ell}\end{pmatrix}$$ de ninguna manera queremos que no cambia el determinante, así que (por ejemplo) $$\det(A_1\mid \cdots \mediados de 2A_\ell\mid \cdots \mediados de A_n)=\det(A_1\mid \cdots \mid A_\ell\mid \cdots \mediados de A_n).$$ Pero debido a que el determinante de $A$ es una función multilineal de las columnas, $$\det(A_1\mid \cdots \mediados de 2A_\ell\mid \cdots \mediados de A_n)=2\det(A_1\mid \cdots \mid A_\ell\mid \cdots \mediados de A_n)$$ por lo que $$2\det(A_1\mid \cdots \mid A_\ell\mid \cdots \mediados de A_n)=\det(A_1\mid \cdots \mid A_\ell\mid \cdots \mediados de A_n)$$ lo cual es imposible debido a la suposición de que $A$ es no-singular significa que $$\det(A_1\mid \cdots \mid A_\ell\mid \cdots \mediados de A_n)\neq0.$$ Por lo tanto, dado un $\ell$, existe al menos un $k$ que varían de $a_{k\ell}$ se puede producir un singular de la matriz.
He aquí una rápida solución. La matriz adjunta de $\def\adj{\operatorname{adj}}\adj$ satifies (más o menos por definición) $$ \adj A\cdot A=\det(A)I_n, $$ y el lado derecho es distinto de cero por la nonsingular hipótesis. Ahora en cuanto a lo que contribuye la diagonal de la entrada $\det(A)$ en la posición $k,k$ a la derecha, se ve que el de la fila $k$ de $\adj$, lo que voy a denominar $(c_1~\ldots~c_n)$ y la columna de $k$ de $Un$, que me va a denotar $(x_1~\ldots~x_n)^t$, producen una matriz de producto de $c_1x_1+\cdots+c_nx_n=\det(A)$. Claramente $c_ix_i\neq0$ por lo menos un $i$. Elegir $i$, y forma una matriz $A'$ mediante la sustitución de la entrada $x_i$ de $Un$ (que se encuentra en la posición $(i,k)$) $x_i-\frac{\det(A)}{c_i}$. Fila $k$ de $\adj'$ aún $(c_1~\ldots~c_n)$ (ya que no dependen de la columna $k$ de $Una$), y el $(k,k)$ de entrada de $\adj'\cdot Un'$ es igual a $c_1x_1+\cdots+c_nx_n-c_i\frac{\det(A)}{c_i}=0$. Pero también es igual a $\det(A')$, entonces $A'$ es singular.
Esto demuestra que no solo la respuesta es "sí, se puede hacer cualquier real invertible la matriz singular por el cambio de una sola entrada", incluso se puede especificar de antemano la columna en la que una entrada debe cambiar. O en la fila, por la transposición de la argumentación (pero no ambos). Y funciona sobre cualquier campo.
Definitivamente, usted puede hacer eso. Una manera de ver es la de Sherman-Morrison-Woodbury fórmula
$$(\mathbf Un+\mathbf u\mathbf v^\la parte superior)^{-1}=\mathbf A^{-1}-\frac1{1+\mathbf v^\top\mathbf A^{-1}\mathbf u}(\mathbf A^{-1}\mathbf u\mathbf v^\top\mathbf A^{-1})$$
y dejar que $\mathbf u$ y $\mathbf v$ ser apropiado múltiplos de la $k$-ésima columna de la matriz identidad $\mathbf e_k$.
En particular, dejando de $a_{j,k}$ ser una entrada de la matriz $\mathbf$ y $c$ constantes, tenemos
$$(\mathbf A+(c-a_{j,k})\mathbf e_j\mathbf e_k^\la parte superior)^{-1}=\mathbf A^{-1}-(c-a_{j,k})\frac1{1+(c-a_{j,k})\mathbf e_k^\top\mathbf A^{-1}\mathbf e_j}(\mathbf A^{-1}\mathbf e_j\mathbf e_k^\top\mathbf A^{-1})$$
Usted tiene que entender lo que la operación $\mathbf A+(c-a_{j,k})\mathbf e_j\mathbf e_k^\$ no; como se puede ver, esta operación corresponde a la colocación de la entrada $a_{j,k}$ con $c$. (Escribir por ti mismo si usted necesita más convincente.)
Lo que ahora quiero hacer es encontrar $c$ tal que el denominador en la expresión dada es igual a cero; es decir,
$A$1+(c-a_{j,k})\mathbf e_k^\top\mathbf A^{-1}\mathbf e_j=0$$
En primer lugar, hemos de abordar la expresión $\mathbf e_k^\top\mathbf A^{-1}\mathbf e_j$. Dejar que $\mathbf W=\mathbf A^{-1}$, $\mathbf e_k^\top\mathbf W\mathbf e_j$ es, de hecho, el $(k,j)$ de entrada de $\mathbf W$, lo que vamos a denotar por $w_{k,j}$. Nuestra ecuación es ahora
$A$1+(c-a_{j,k})w_{k,j}=0$$
y ahora podemos resolver para el valor de $c$ que $\mathbf$ singular si se reemplaza $a_{j,k}$:
$$c=a_{j,k}-\frac1{w_{k,j}}$$
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.