12 votos

Propiedades de 4 por 4 Matrices

Definir

$ A=\begin{pmatrix} x_1 & x_2 & 0 & 0\\ 0 &1&0&0\\ 0&0&1&0\\ 0&0&0&1 \end{pmatrix}, B=\begin{pmatrix} 1 & 0 & 0 & 0\\ x_3 &x_4&x_5&0\\ 0&0&1&0\\ 0&0&0&1 \end{pmatrix}, C=\begin{pmatrix} 1 & 0 & 0 & 0\\ 0 &1&0&0\\ 0&x_6&x_7&x_8\\ 0&0&0&1 \end{pmatrix},$

$ D=\begin{pmatrix} 1 & 0 & 0 & 0\\ 0 &1&0&0\\ 0&0&1&0\\ 0&0&x_9&x_{10} \end{pmatrix}$.

Deje $W$ ser un producto de por encima de las matrices. (Por ejemplo, $ W $ $D^2ABDC$ o $CAD$ (de cualquier tipo de producto de que por encima de las matrices)).

Ahora definir la inversa de a$W$$Re(W)$. Por ejemplo, si $W=D^2ABDC$ $Re(W)=CDBAD^2$ Si $W=CAD$$Re(W)=DAC$.

Yo quiero probar $\det(W+Re(W))-\det(W-Re(W))$ es divisible por $4$. En otras palabras $\det(W+Re(W))-\det(W-Re(W))\equiv 0 \mod 4$.

Cualquier comentario muy apreciada.

Nota (de mal humor Chirivía): Un fenómeno generalizado parece ser el caso aquí. Se puede definir $n\times n$ matrices de una forma similar. E. g. $A_2=\left(\begin{array}{cc} x_1&x_2\\0&1\end{array}\right)$ $B_2=\left(\begin{array}{cc} 1&0\\x_3&x_4\end{array}\right)$ . Entonces parece que para $2m\times 2m$ matrices,

$$\det(W+Re(W))+(-1)^{m-1}\det(W-Re(W))=0\mod 4.$$

Tal vez la $2\times 2$ de los casos es más fácil de entender. Voy a conceder una recompensa para una solución a la $2\times 2$ de los casos. (Esperemos que el OP, que es un amigo de la mía, no la mente mis ediciones.)

3voto

Markus Scheuer Puntos 16133

Añadido 2014-07-14: La Respuesta a continuación es una reescritura del texto anterior que era esencialmente sólo un acercamiento a una posible solución. Se basó en la idea de interpretar las matrices $A_2$ $B_2$ como matrices de transformación para un autómata. El lenguaje que se genera por este autómata podría ser analizados para encontrar la solución.

Contrario a mis primeros pensamientos que este enfoque es más engorroso de tener que probar la proposición por inducción. Por lo tanto, con menos conocimiento del problema, pero también con menos esfuerzo para proporcionar una solución de la respuesta a continuación se basa en la inducción.


Esta es una respuesta en referencia a la nota de mal humor Chirivía. Así, ponemos el foco en el $2\times2$-matrices

\begin{align*} A_2=\left( \begin{array}{cc} x_1 & x_2\\ 0 & 1 \end{array} \right) \qquad B_2=\left( \begin{array}{cc} 1 & 0\\ x_3 & x_4 \end{array} \right) \end{align*}

$A_2$ $B_2$ superior izquierda de la sub-matrices de $A$ $B$ de la pregunta original. Asumimos entero entradas y considerar finito productos de las anteriores matrices $$W=\prod_{j=1}^{n}X_j\qquad X_j\in\{A_2,B_2\}$$ Definimos $Re(W) := \prod_{j=1}^{n}X_{n+1-j}$, un tipo de revirtió producto y mostrar:

Válida la afirmación de que:

\begin{align*} \det\left(W+Re(W)\right)+\det\left(W-Re(W)\right) \equiv 0(4)\tag{1} \end{align*}

Observar que podemos agregar en (1) los determinantes correspondientes al factor de $(-1)^{m-1}$ $(2m\times2m)$- matrices de mal humor Chirivías nota.


Nota: Para ilustrar la conexión entre las sub-matrices $A_2$ $B_2$ y las matrices $A,B,C,D$ de la pregunta original, ver la imagen con la correspondiente autómatas a continuación. Los elementos $x_{i,j}$ de una matriz son las etiquetas de los bordes del nodo $i$ a un nodo $j$ de los autómatas. Una matriz de entrada de $1$ que es el elemento neutro con respecto a la multiplicación se denota con a $\varepsilon$, el elemento neutro de la concatenación de las palabras del lenguaje formal que se genera al caminar a lo largo de los bordes del autómata.

El autómata indicar claramente la conexión estructural de la $(2\times 2)$ matrices $A_2,B_2$ $(4\times 4)$ matrices $A,B,C,D$ haciendo mal humor Chirivías comentario acerca de la generalización de las matrices a $(2m\times 2m)$ matrices plausible, además del factor de $(-1)^{m-1}$, lo que se presume fue un resultado de cálculo separada.

enter image description here

[autómatas de transición matrices $A_2, B_2$$A,B,C,D$]


La siguiente prueba se hace por inducción sobre el número de $n$ de los factores de $W$

La inducción de la base paso a $(n=1)$

En el caso de $n=1$ tenemos que comprobar dos alternativas $W=A_2$ $W=B_2$

Caso $W=A_2$:

\begin{align*} \det&\left(A_2+Re(A_2)\right)+ \det\left(A_2-Re(A_2)\right)\\ &= \det(2\cdot A_2)+\det(0\cdot A_2)\\ &=2^2\det(A_2)\equiv 0(4) \end{align*}

Observar, que $Re(W)=Re(A_2)=A_2$.

Desde el caso de $W=B_2$ es literalmente el mismo que $W=A_2$ de la base paso está probado.

A continuación, el

Hipótesis de inducción

Podemos suponer que la declaración de $(1)$ es válido foreach $W=\prod_{j=1}^{n}X_j$$X_j\in\{A_2,B_2\}$.

Por lo tanto, vamos

\begin{align*} W=\left( \begin{array}{cc} w_{1,1} & w_{1,2}\\ w_{2,1} & w_{2,2} \end{array} \right) \qquad Re(W)=\left( \begin{array}{cc} w_{1,1}^\ast & w_{1,2}^\ast\\ w_{2,1}^\ast & w_{2,2}^\ast \end{array} \right) \end{align*}

A continuación, obtenemos

\begin{align*} \det&\left(W+Re(W)\right)+\det\left(W-Re(W)\right)\\ &=det\left( \begin{array}{cc} w_{1,1}+w_{1,1}^\ast & w_{1,2}+w_{1,2}^\ast\\ w_{2,1}+w_{2,1}^\ast & w_{2,2}+w_{2,2}^\ast \end{array} \right) +\det\left( \begin{array}{cc} w_{1,1}-w_{1,1}^\ast & w_{1,2}-w_{1,2}^\ast\\ w_{2,1}-w_{2,1}^\ast & w_{2,2}-w_{2,2}^\ast \end{array} \right)\\ y=(w_{1,1}+w_{1,1}^\ast)(w_{2,2}+w_{2,2}^\ast)-(w_{2,1}+w_{2,1}^\ast)(w_{1,2}+w_{1,2}^\ast)\\ &+(w_{1,1}-w_{1,1}^\ast)(w_{2,2}-w_{2,2}^\ast)-(w_{2,1}-w_{2,1}^\ast)(w_{1,2}-w_{1,2}^\ast)\\ &=2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast\\ &\equiv 0(4)\etiqueta{2} \end{align*}

Y ahora nos muestran el

Inducción paso $(n \rightarrow n+1)$

Tenemos que mostrar que $(1)$ es válido para$WA_2$$WB_2$. Es suficiente para considerar a la derecha de la multiplicación con $A_2$ resp. $B_2$ desde la izquierda de la multiplicación ya está asumida por una adecuada elección de la $W$.

Caso $WA_2$:

\begin{align*} WA_2&=\left( \begin{array}{cc} w_{1,1} & w_{1,2}\\ w_{2,1} & w_{2,2} \end{array} \right)\left( \begin{array}{cc} x_1 & x_2\\ 0 & 1 \end{array} \right)\\ &=\left( \begin{array}{cc} w_{1,1}x_1 & w_{1,1}x_2+w_{1,2}\\ w_{2,1}x_1 & w_{2,1}x_2+w_{2,2} \end{array} \right)\\ A_2Re(W)&=\left( \begin{array}{cc} x_1 & x_2\\ 0 & 1 \end{array} \right)\left( \begin{array}{cc} w_{1,1}^\ast & w_{1,2}^\ast\\ w_{2,1}^\ast & w_{2,2}^\ast \end{array} \right)\\ &=\left( \begin{array}{cc} w_{1,1}^\ast x_1+w_{2,1}^\ast x_2 & w_{1,2}^\ast x_1+w_{2,2}^\ast x_2\\ w_{2,1}^\ast & w_{2,2}^\ast \end{array} \right) \end{align*}

Así, obtenemos

\begin{align*} \det&\left(WA_2+A_2Re(W)\right)+\det\left(WA_2-A_2Re(W)\right)\\ &=det\left( \begin{array}{cc} w_{1,1}x_1+w_{1,1}^\ast x_1+w_{2,1}^\ast x_2 & w_{1,1}x_2+w_{1,2}+w_{1,2}^\ast x_1+w_{2,2}^\ast x_2\\ w_{2,1}x_1+w_{2,1}^\ast & w_{2,1}x_2+w_{2,2}+w_{2,2}^\ast \end{array} \right)\\ &+det\left( \begin{array}{cc} w_{1,1}x_1-w_{1,1}^\ast x_1-w_{2,1}^\ast x_2 & w_{1,1}x_2+w_{1,2}-w_{1,2}^\ast x_1-w_{2,2}^\ast x_2\\ w_{2,1}x_1-w_{2,1}^\ast & w_{2,1}x_2+w_{2,2}-w_{2,2}^\ast \end{array} \right)\\ y=(w_{1,1}x_1+w_{1,1}^\ast x_1+w_{2,1}^\ast x_2)(w_{2,1}x_2+w_{2,2}+w_{2,2}^\ast)\\ &-(w_{2,1}x_1+w_{2,1}^\ast)(w_{1,1}x_2+w_{1,2}+w_{1,2}^\ast x_1+w_{2,2}^\ast x_2)\\ &+(w_{1,1}x_1-w_{1,1}^\ast x_1-w_{2,1}^\ast x_2)(w_{2,1}x_2+w_{2,2}-w_{2,2}^\ast)\\ &-(w_{2,1}x_1-w_{2,1}^\ast)(w_{1,1}x_2+w_{1,2}-w_{1,2}^\ast x_1-w_{2,2}^\ast x_2)\\ Y=(2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast)x_1\\ &\equiv 0(4) \end{align*}

de acuerdo a la inducción de la hipótesis de $(2)$.

Caso $WB_2$:

\begin{align*} WB_2&=\left( \begin{array}{cc} w_{1,1} & w_{1,2}\\ w_{2,1} & w_{2,2} \end{array} \right)\left( \begin{array}{cc} 1 & 0\\ x_3 & x_4 \end{array} \right)\\ &=\left( \begin{array}{cc} w_{1,1}+w_{1,2}x_3 & w_{1,2}x_4\\ w_{2,1}+w_{2,2}x_3 & w_{2,2}x_4 \end{array} \right)\\ B_2Re(W)&=\left( \begin{array}{cc} 1 & 0\\ x_3 & x_4 \end{array} \right)\left( \begin{array}{cc} w_{1,1}^\ast & w_{1,2}^\ast\\ w_{2,1}^\ast & w_{2,2}^\ast \end{array} \right)\\ &=\left( \begin{array}{cc} w_{1,1}^\ast & w_{1,2}^\ast\\ w_{1,1}^\ast x_3+w_{2,1}^\ast x_4 & w_{1,2}^\ast x_3+w_{2,2}^\ast x_4 \end{array} \right) \end{align*}

Así, obtenemos

\begin{align*} \det&\left(WB_2+B_2Re(W)\right)+\det\left(WB_2-B_2Re(W)\right)\\ &=det\left( \begin{array}{cc} w_{1,1}+w_{1,2}x_3+w_{1,1}^\ast & w_{1,2}x_4+w_{1,2}^\ast\\ w_{2,1}+w_{2,2}x_3+w_{1,1}^\ast x_3+w_{2,1}^\ast x_4 & w_{2,2}x_4+w_{1,2}^\ast x_3+w_{2,2}^\ast x_4 \end{array} \right)\\ &+det\left( \begin{array}{cc} w_{1,1}+w_{1,2}x_3-w_{1,1}^\ast & w_{1,2}x_4-w_{1,2}^\ast\\ w_{2,1}+w_{2,2}x_3-w_{1,1}^\ast x_3-w_{2,1}^\ast x_4 & w_{2,2}x_4-w_{1,2}^\ast x_3-w_{2,2}^\ast x_4 \end{array} \right)\\ y=(w_{1,1}+w_{1,2}x_3+w_{1,1}^\ast)(w_{2,2}x_4+w_{1,2}^\ast x_3+w_{2,2}^\ast x_4)\\ &-(w_{2,1}+w_{2,2}x_3+w_{1,1}^\ast x_3+w_{2,1}^\ast x_4)(w_{1,2}x_4+w_{1,2}^\ast)\\ &+(w_{1,1}+w_{1,2}x_3-w_{1,1}^\ast)(w_{2,2}x_4-w_{1,2}^\ast x_3-w_{2,2}^\ast x_4)\\ &-(w_{2,1}+w_{2,2}x_3-w_{1,1}^\ast x_3-w_{2,1}^\ast x_4)(w_{1,2}x_4-w_{1,2}^\ast)\\ Y=(2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast)x_4\\ &\equiv 0(4) \end{align*}

de acuerdo a la inducción de la hipótesis de $(2)$, lo que completa la prueba por inducción.


Nota: Una prueba por inducción de la respuesta original podría ser hecho de la misma manera (con un esfuerzo mucho más :-) )

3voto

Keith Penrod Puntos 124

Mi impulso es demostrarlo por inducción (en el número de factores en $W$). Claramente el resultado se cumple para cualquier factor único de productos. Así que, asumiendo que el resultado vale para $W$, muestran que $\det(AW+WA)\equiv \det(AW-WA)\mod 4$, y del mismo modo para $B,C$, e $D$. Sólo hacer el álgebra con la mano, me mostró que es cierto al menos para $A$. Supongo que los otros deberían trabajar de un modo bastante similar. Al menos, el cálculo de $D$ sería simétrica.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X