Añadido 2014-07-14: La Respuesta a continuación es una reescritura del texto anterior que era esencialmente sólo un acercamiento a una posible solución. Se basó en la idea de interpretar las matrices $A_2$ $B_2$ como matrices de transformación para un autómata. El lenguaje que se genera por este autómata podría ser analizados para encontrar la solución.
Contrario a mis primeros pensamientos que este enfoque es más engorroso de tener que probar la proposición por inducción. Por lo tanto, con menos conocimiento del problema, pero también con menos esfuerzo para proporcionar una solución de la respuesta a continuación se basa en la inducción.
Esta es una respuesta en referencia a la nota de mal humor Chirivía. Así, ponemos el foco en el $2\times2$-matrices
\begin{align*}
A_2=\left(
\begin{array}{cc}
x_1 & x_2\\
0 & 1
\end{array}
\right)
\qquad
B_2=\left(
\begin{array}{cc}
1 & 0\\
x_3 & x_4
\end{array}
\right)
\end{align*}
$A_2$ $B_2$ superior izquierda de la sub-matrices de $A$ $B$ de la pregunta original.
Asumimos entero entradas y considerar finito productos de las anteriores matrices
$$W=\prod_{j=1}^{n}X_j\qquad X_j\in\{A_2,B_2\}$$
Definimos $Re(W) := \prod_{j=1}^{n}X_{n+1-j}$, un tipo de revirtió producto y mostrar:
Válida la afirmación de que:
\begin{align*}
\det\left(W+Re(W)\right)+\det\left(W-Re(W)\right) \equiv 0(4)\tag{1}
\end{align*}
Observar que podemos agregar en (1) los determinantes correspondientes al factor de $(-1)^{m-1}$ $(2m\times2m)$- matrices de mal humor Chirivías nota.
Nota: Para ilustrar la conexión entre las sub-matrices $A_2$ $B_2$ y las matrices $A,B,C,D$ de la pregunta original, ver la imagen con la correspondiente autómatas a continuación. Los elementos $x_{i,j}$ de una matriz son las etiquetas de los bordes del nodo $i$ a un nodo $j$ de los autómatas. Una matriz de entrada de $1$ que es el elemento neutro con respecto a la multiplicación se denota con a $\varepsilon$, el elemento neutro de la concatenación de las palabras del lenguaje formal que se genera al caminar a lo largo de los bordes del autómata.
El autómata indicar claramente la conexión estructural de la $(2\times 2)$ matrices $A_2,B_2$ $(4\times 4)$ matrices $A,B,C,D$ haciendo mal humor Chirivías comentario acerca de la generalización de las matrices a $(2m\times 2m)$ matrices plausible, además del factor de $(-1)^{m-1}$, lo que se presume fue un resultado de cálculo separada.
[autómatas de transición matrices $A_2, B_2$$A,B,C,D$]
La siguiente prueba se hace por inducción sobre el número de $n$ de los factores de $W$
La inducción de la base paso a $(n=1)$
En el caso de $n=1$ tenemos que comprobar dos alternativas $W=A_2$ $W=B_2$
Caso $W=A_2$:
\begin{align*}
\det&\left(A_2+Re(A_2)\right)+ \det\left(A_2-Re(A_2)\right)\\
&= \det(2\cdot A_2)+\det(0\cdot A_2)\\
&=2^2\det(A_2)\equiv 0(4)
\end{align*}
Observar, que $Re(W)=Re(A_2)=A_2$.
Desde el caso de $W=B_2$ es literalmente el mismo que $W=A_2$ de la base paso está probado.
A continuación, el
Hipótesis de inducción
Podemos suponer que la declaración de $(1)$ es válido foreach $W=\prod_{j=1}^{n}X_j$$X_j\in\{A_2,B_2\}$.
Por lo tanto, vamos
\begin{align*}
W=\left(
\begin{array}{cc}
w_{1,1} & w_{1,2}\\
w_{2,1} & w_{2,2}
\end{array}
\right)
\qquad
Re(W)=\left(
\begin{array}{cc}
w_{1,1}^\ast & w_{1,2}^\ast\\
w_{2,1}^\ast & w_{2,2}^\ast
\end{array}
\right)
\end{align*}
A continuación, obtenemos
\begin{align*}
\det&\left(W+Re(W)\right)+\det\left(W-Re(W)\right)\\
&=det\left(
\begin{array}{cc}
w_{1,1}+w_{1,1}^\ast & w_{1,2}+w_{1,2}^\ast\\
w_{2,1}+w_{2,1}^\ast & w_{2,2}+w_{2,2}^\ast
\end{array}
\right)
+\det\left(
\begin{array}{cc}
w_{1,1}-w_{1,1}^\ast & w_{1,2}-w_{1,2}^\ast\\
w_{2,1}-w_{2,1}^\ast & w_{2,2}-w_{2,2}^\ast
\end{array}
\right)\\
y=(w_{1,1}+w_{1,1}^\ast)(w_{2,2}+w_{2,2}^\ast)-(w_{2,1}+w_{2,1}^\ast)(w_{1,2}+w_{1,2}^\ast)\\
&+(w_{1,1}-w_{1,1}^\ast)(w_{2,2}-w_{2,2}^\ast)-(w_{2,1}-w_{2,1}^\ast)(w_{1,2}-w_{1,2}^\ast)\\
&=2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast\\
&\equiv 0(4)\etiqueta{2}
\end{align*}
Y ahora nos muestran el
Inducción paso $(n \rightarrow n+1)$
Tenemos que mostrar que $(1)$ es válido para$WA_2$$WB_2$. Es suficiente para considerar a la derecha de la multiplicación con $A_2$ resp. $B_2$ desde la izquierda de la multiplicación ya está asumida por una adecuada elección de la $W$.
Caso $WA_2$:
\begin{align*}
WA_2&=\left(
\begin{array}{cc}
w_{1,1} & w_{1,2}\\
w_{2,1} & w_{2,2}
\end{array}
\right)\left(
\begin{array}{cc}
x_1 & x_2\\
0 & 1
\end{array}
\right)\\
&=\left(
\begin{array}{cc}
w_{1,1}x_1 & w_{1,1}x_2+w_{1,2}\\
w_{2,1}x_1 & w_{2,1}x_2+w_{2,2}
\end{array}
\right)\\
A_2Re(W)&=\left(
\begin{array}{cc}
x_1 & x_2\\
0 & 1
\end{array}
\right)\left(
\begin{array}{cc}
w_{1,1}^\ast & w_{1,2}^\ast\\
w_{2,1}^\ast & w_{2,2}^\ast
\end{array}
\right)\\
&=\left(
\begin{array}{cc}
w_{1,1}^\ast x_1+w_{2,1}^\ast x_2 & w_{1,2}^\ast x_1+w_{2,2}^\ast x_2\\
w_{2,1}^\ast & w_{2,2}^\ast
\end{array}
\right)
\end{align*}
Así, obtenemos
\begin{align*}
\det&\left(WA_2+A_2Re(W)\right)+\det\left(WA_2-A_2Re(W)\right)\\
&=det\left(
\begin{array}{cc}
w_{1,1}x_1+w_{1,1}^\ast x_1+w_{2,1}^\ast x_2 & w_{1,1}x_2+w_{1,2}+w_{1,2}^\ast x_1+w_{2,2}^\ast x_2\\
w_{2,1}x_1+w_{2,1}^\ast & w_{2,1}x_2+w_{2,2}+w_{2,2}^\ast
\end{array}
\right)\\
&+det\left(
\begin{array}{cc}
w_{1,1}x_1-w_{1,1}^\ast x_1-w_{2,1}^\ast x_2 & w_{1,1}x_2+w_{1,2}-w_{1,2}^\ast x_1-w_{2,2}^\ast x_2\\
w_{2,1}x_1-w_{2,1}^\ast & w_{2,1}x_2+w_{2,2}-w_{2,2}^\ast
\end{array}
\right)\\
y=(w_{1,1}x_1+w_{1,1}^\ast x_1+w_{2,1}^\ast x_2)(w_{2,1}x_2+w_{2,2}+w_{2,2}^\ast)\\
&-(w_{2,1}x_1+w_{2,1}^\ast)(w_{1,1}x_2+w_{1,2}+w_{1,2}^\ast x_1+w_{2,2}^\ast x_2)\\
&+(w_{1,1}x_1-w_{1,1}^\ast x_1-w_{2,1}^\ast x_2)(w_{2,1}x_2+w_{2,2}-w_{2,2}^\ast)\\
&-(w_{2,1}x_1-w_{2,1}^\ast)(w_{1,1}x_2+w_{1,2}-w_{1,2}^\ast x_1-w_{2,2}^\ast x_2)\\
Y=(2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast)x_1\\
&\equiv 0(4)
\end{align*}
de acuerdo a la inducción de la hipótesis de $(2)$.
Caso $WB_2$:
\begin{align*}
WB_2&=\left(
\begin{array}{cc}
w_{1,1} & w_{1,2}\\
w_{2,1} & w_{2,2}
\end{array}
\right)\left(
\begin{array}{cc}
1 & 0\\
x_3 & x_4
\end{array}
\right)\\
&=\left(
\begin{array}{cc}
w_{1,1}+w_{1,2}x_3 & w_{1,2}x_4\\
w_{2,1}+w_{2,2}x_3 & w_{2,2}x_4
\end{array}
\right)\\
B_2Re(W)&=\left(
\begin{array}{cc}
1 & 0\\
x_3 & x_4
\end{array}
\right)\left(
\begin{array}{cc}
w_{1,1}^\ast & w_{1,2}^\ast\\
w_{2,1}^\ast & w_{2,2}^\ast
\end{array}
\right)\\
&=\left(
\begin{array}{cc}
w_{1,1}^\ast & w_{1,2}^\ast\\
w_{1,1}^\ast x_3+w_{2,1}^\ast x_4 & w_{1,2}^\ast x_3+w_{2,2}^\ast x_4
\end{array}
\right)
\end{align*}
Así, obtenemos
\begin{align*}
\det&\left(WB_2+B_2Re(W)\right)+\det\left(WB_2-B_2Re(W)\right)\\
&=det\left(
\begin{array}{cc}
w_{1,1}+w_{1,2}x_3+w_{1,1}^\ast & w_{1,2}x_4+w_{1,2}^\ast\\
w_{2,1}+w_{2,2}x_3+w_{1,1}^\ast x_3+w_{2,1}^\ast x_4 & w_{2,2}x_4+w_{1,2}^\ast x_3+w_{2,2}^\ast x_4
\end{array}
\right)\\
&+det\left(
\begin{array}{cc}
w_{1,1}+w_{1,2}x_3-w_{1,1}^\ast & w_{1,2}x_4-w_{1,2}^\ast\\
w_{2,1}+w_{2,2}x_3-w_{1,1}^\ast x_3-w_{2,1}^\ast x_4 & w_{2,2}x_4-w_{1,2}^\ast x_3-w_{2,2}^\ast x_4
\end{array}
\right)\\
y=(w_{1,1}+w_{1,2}x_3+w_{1,1}^\ast)(w_{2,2}x_4+w_{1,2}^\ast x_3+w_{2,2}^\ast x_4)\\
&-(w_{2,1}+w_{2,2}x_3+w_{1,1}^\ast x_3+w_{2,1}^\ast x_4)(w_{1,2}x_4+w_{1,2}^\ast)\\
&+(w_{1,1}+w_{1,2}x_3-w_{1,1}^\ast)(w_{2,2}x_4-w_{1,2}^\ast x_3-w_{2,2}^\ast x_4)\\
&-(w_{2,1}+w_{2,2}x_3-w_{1,1}^\ast x_3-w_{2,1}^\ast x_4)(w_{1,2}x_4-w_{1,2}^\ast)\\
Y=(2w_{1,1} w_{2,2}+2w_{1,1}^\ast w_{2,2}^\ast-2w_{1,2}w_{2,1}-2w_{1,2}^\ast w_{2,1}^\ast)x_4\\
&\equiv 0(4)
\end{align*}
de acuerdo a la inducción de la hipótesis de $(2)$, lo que completa la prueba por inducción.
Nota: Una prueba por inducción de la respuesta original podría ser hecho de la misma manera (con un esfuerzo mucho más :-) )