$\def\glz{\operatorname{GL}_4(\mathbb Z)}$
$\def\inv{^{-1}}$
La pregunta es acerca de relleno en algunos detalles acerca de las afirmaciones hechas en este documento. La respuesta tiene bastante larga como he añadido más detalles. Guía: la parte de la respuesta a través de la primera edición de la muestra de que el commutant de la copia de $D_5$ $\operatorname{GL}_4(\mathbb C)$ es de dos dimensiones, abelian, y genera como un unital álgebra por una cierta matriz $M = R + R\inv$. Sin embargo, la copia de $D_5$ y la matriz $M$ ambos se encuentran en $\glz$, y la parte posterior de la argumentación en la 4ª postludio muestra que $M$ $- 1$ (menos de la matriz de identidad) generar el centralizador de $D_5$ $\glz$ como un grupo. En el medio, he añadido más detalles acerca de la primera parte, y también se explica la construcción de las 4 dimensiones de la representación de $D_5$ dada en el papel.
Voy a escribir $R$ $J$ de su matriz de dos generadores. $R$ es diagonalizable con los vectores propios de la 4 primitiva 5 de raíces de 1, llamarlos $\omega, \omega^{-1}, \omega^2, \omega^{-2}$. En la base de vectores propios, las matrices que conmutan con a su a$D_5$, en particular, conmuta con $R$, por lo que son diagonales. También en la base de vectores propios, $J$, hasta algunos de escala que es probablemente irrelevante, permutes los vectores propios de a pares (perteneciente a la inversa pares de autovalores). Por lo tanto su diagonal desplazamientos matrices tienen sólo dos distintas diagonal entradas. Así, el commutant es conmutativa, generado por dos desplazamientos idempotents de rango 2.
Ahora, todavía en la base de vectores propios, $M = R + R^{-1}$ es una matriz diagonal con sólo dos autovalores $\omega + \omega^{-1}$ $\omega^2 + \omega^{-2}$ corresponde a la gama de los dos deseado idempotents. Así que, de hecho, toda la commutant es generado por los polinomios en la $M$.
Tenga en cuenta que esto es donde $\mathcal R(\delta)$ provenían, es $R + R^{-1}$, en la base original, no la base de vectores propios.
He considerado el problema desde el punto de vista de los desplazamientos de álgebra, pero el centralizador de los subgrupos sólo consta de la invertible elementos en los desplazamientos de álgebra. También he trabajado en los números complejos. De todos modos, creo que esto es parecido a lo que usted necesita.
Edit: si lo miramos desde más de un grupo de representaciones punto de vista, se puede llegar al mismo lugar más conceptualmente, tal vez. Claramente $R + R^{-1}$ es en el commutant para cualquier representación. Por lo $R + R^{-1}$ actúa como un escalar en cada representación irreducible. En 2 dimensiones irreductibles de la representación, el valor de escalar es el carácter de $R$, $2 \cos(2 \pi/k)$ donde $k$ puede ser tomado como una etiqueta para la representación. En cualquiera de las dos representaciones tridimensionales, $R + R^{-1}$ actúa como el escalar $2$.
Ahora en nuestra representación particular, al examinar el espectro de $R + R^{-1}$ o de $R$, se puede ver que tanto en 2 dimensiones irreductibles representaciones se producen con multiplicidad 1, por lo que se deduce que el $R + R^{-1}$ realmente genera el commutant (como un álgebra).
2ª edición: Usted preguntó cómo utilizar polinomios en $R + R^{-1}$ a generar toda la commutant. En efecto lineal de los polinomios va a hacer, debido a la especial estructura de aquí, como voy a explicar siguiente.
Mini-mini-curso en teoría de la representación: Supongamos que tengo un grupo de representación $\rho : G \to \operatorname{GL}(V)$, y se descompone como suma directa de las condiciones mutuamente no equivalentes irreductible subrepresentations, $V = W_1 \oplus W_2 \oplus \cdots \oplus W_n$. Deje $P_j$ ser la proyección de operador que es $1$ $W_j$ y cero en $W_i$$i \ne j$. Así $P_j^2 = P_j$, $P_i P_j = 0 $ para$i \ne j$$\sum_j P_j = 1$,
donde escribo $1$ para la identidad del operador. A continuación, toda la commutant $\mathcal C$ $\rho(G)$ se compone de combinaciones lineales de $P_1,\dots, P_n$.
Mini-mini-curso de álgebra lineal Ahora supongamos que tengo una colección de proyección de los operadores como por encima de $P_1,\dots, P_n$ con
$P_j^2 = P_j$, $P_i P_j = 0 $ para$i \ne j$$\sum_j P_j = 1$. No importa si vienen de un grupo de representación o de algún otro lugar.
Deje $W_j = P_j V$, lo $V$ es la suma directa de los subespacios $W_j$. Deje $\mathcal C$ ser el álgebra generada por la proyección de los operadores de $P_j$; de hecho, se compone de combinaciones lineales de los operadores de $P_j$. Supongamos que alguien me entrega una particular combinación lineal $T= \sum_i \alpha_i P_i$ todos los $\alpha_i$ distintas. Entonces me afirmación de que puedo recuperar la $P_j$ y, por tanto, todos los de $\mathcal C$ a partir de los polinomios en $T$, y si $n = 2$ puedo hacerlo con lineal de los polinomios.
Esto va por el nombre de interpolación de fórmulas.
Fix $i$ y considerar
$$\prod_{j \ne i} \frac{ T - \alpha_j 1}{\alpha_i - \alpha_j},$$
que es un polinomio de grado $n-1$$T$. Se puede comprobar que se aplica a un vector en $W_k$$k \ne i$, da cero, pero aplicada a un vector en $W_i$ le da de nuevo el vector. Por lo tanto el polinomio en el $T$ es en realidad igual a $P_i$.
3º el epílogo de su debate/charla que todavía están perplejos acerca de la derivación de la 4d representación de las matrices. Como "explicado" en la física de papel, la representación se deriva de la 5d permutación representación exactamente como Josh B. sugerido. En primer lugar, usted tiene que saber que da una representación $V$ y un subrepresentation $W$, se obtiene un cociente de representación en $V/W$. Comience con la permutación de la representación de $D_5$ en $F^5$, $F$ su favorito de campo, dado por
$$
R: e_0 \a e_1 \a e_2 \a e_3 \a e_4 \a e_0
$$
donde $e_i$ son el estándar de la base de elementos de $F^5$ (desplazado etiquetas)
y
$$
J: e_0 \a e_0,\quad e_1 \a e_4 \a e_1, \quad e_2 \a e_3 \a e_2.
$$
Ahora $w = \sum_{j = 0}^4 e_j$ es fijado por tanto $R$$J$. De hecho, es fija por todas las matrices de permutación. Deje $W = F w$$V = F^5/W$.
Dar $V$ base $\overline e_1 = e_1 + W, \dots, \overline e_4 = e_4 + W$. Nota:$e_0 + W = -(\overline e_1 + \overline e_2 + \overline e_3 + \overline e_4)$, ya que el $e_0 = -\sum_{j = 1}^4 e_j + w$. De ello se desprende que las matrices de $R$ $J$ $V = F^5/W$ con respecto a la base
$\{\overline e_i\}_{1 \le i \le 4}$ son exactamente los que citó el papel.
4º postludio: he rematado.
Demostración de que el centralizador de $D_5$ $\glz$ es generado (como un grupo) por
$M = R + R\inv$ $- 1$ . Recordemos que $\glz$ es el conjunto de enteros matrices con determinante $\pm 1$.
Ya sabemos que cualquier matriz que conmuta con $D_5$ pointwise es una combinación lineal de $M$ y la matriz de identidad. Tenemos que averiguar cuándo $a M + b 1$
ha entero entradas y determinante $\pm 1$. Por la inspección,
$$
a M + b 1 =\left(
\begin{array}{cccc}
b-a & a & 0 & -a \\
0 & b & a & -a \\
-a & a & b & 0 \\
-a & 0 & a & b-a \\
\end{array}
\right)
$$
es un entero valorado si y sólo si $a$ $b$ son enteros. Por el cálculo,la
$$
\det(a M + b (1) = \left(a^2+b-b^2\right)^2,
$$
y, en particular,$\det M = 1$. Por otra parte, $\det(a M + b 1) \ge 0$, lo $$a M + b 1 \in \glz \implies \det(a M + b 1) = 1.$$
El polinomio mínimo de a $M$ es
$x^2 + x -1$, como se desprende por ejemplo del cálculo de los autovalores de a $M$. Así tenemos
$$
M\inv = (M + 1) \quad \text{y} \quad M^2 = (1 - M).
$$
Observación 1. Supongamos $a M + b 1 \in \glz$ $a$ $b$ son relativamente primos.
Prueba. Si $a$ $b$ tienen en común un factor primordial $p$, $\det(a M + b 1)$ es divisible por $p^4$. qed
Supongamos que $T = a M + b 1 \in \glz$. Queremos mostrar que $T$ es en el subgrupo de $\glz$ generado por $M$$ - 1$. Si uno de los coeficientes de $a, b$ es cero, $T = \pm M$ o $T = \pm 1$, y hemos terminado, Si ambos de los coeficientes de $a, b$$\pm 1$, $T = \pm M\inv$ o $T = \pm M^2$, por la discusión de la mínima polinomio, por lo que de nuevo tenemos que hacer. Ahora podemos proceder por inducción en $|a| + |b|$.
Consideremos el caso de que $a b > 0$. Mediante la extracción de un factor de $ -1$ (es decir, la matriz de $-1$), podemos suponer $a, b > 0$, y relativamente primos. Por otra parte, sólo estamos interesados en el caso de que $ a b > 1$. En particular ni de $a, b$ es divisible por el otro.
Observación 2. $ b > a > 0$.
Prueba. Si $a >b$ $$a ^2 + ab - b^2 > a^2 - b^2 = (a -b)(a + b) > a + b > a > 1.$$ Hence, $\det(T) >1$, una contradicción. qed
Ahora tomamos nuestro elemento $T = a M + b 1 \in \glz$ y el factor de salida $M\inv$:
$$
T = M\inv (M^2 + b M) = M\inv ( a(1 - M) + b M) = M\inv (b - a) M + 1).
$$
El factor de $ (b - a) M + a 1$ es necesariamente en $\glz$, y ha coeficientes positivos cuya suma $b$ es menor que la suma de los coeficientes de $T$. Así que nuestra conclusión se sigue de la hipótesis de inducción.
El próximo considere el caso de que $a b < 0$. Mediante la extracción de un factor de $-1$ si es necesario, podemos asumir
$a > 0 > b$, e $|a b| > 1$.
Observación 3. $ a > -b$.
Prueba. si $-b > a$, luego
$$
b^2 - ab - a^2 > b^2 - a^2 = (b-a)(b+a) > 1.
$$
Por lo tanto $\det(T) > 1$, una contradicción. qed
Nos tomamos nuestro elemento $T = a M + b 1 \in \glz$ y el factor de salida $M$:
$$
T = M( 1 + b M\inv) = M ( a 1 + b (M + 1)) = M ( b, M + (a + b) 1).
$$
El factor de $b M + (a + b) 1$ $\glz$ y los coeficientes de $a + b > 0$$b <0$. La suma de los valores absolutos de estos coeficientes es $(a + b) - b = a$, que es menor que la suma correspondiente por los coeficientes de $T$, es decir,$a - b$. De nuevo nuestra conclusión se sigue de la hipótesis de inducción.