27 votos

¿Por qué esto $ \sigma \pi \sigma ^{-1}$ sigue apareciendo en mi libro de teoría de grupo? (ciclo de descomposición)

Estoy estudiando la descomposición de los ciclos en la teoría de grupos. Los ejercicios de mi libro siguen diciendo cosas como:

  • Encontrar una permutación $ \sigma $ de tal manera que $ \sigma (123) \sigma ^{-1} = (456)$
  • Probar que no hay permutación $ \sigma $ de tal manera que $ \sigma (1 2) \sigma ^{-1} = (123)$
  • Muestra que $ \pi (x_1 x_2 \cdots x_n) \pi ^{-1} = ( \pi (x_1) \cdots \pi (x_n))$

¿Por qué esto $ \sigma \pi \sigma ^{-1}$ aparece cada vez en este libro? ¿Esto es importante para algo? ¿Podría alguien darme una idea clara de cómo llegamos a esto? También, sería bueno saber cómo probar el tercero, si alguien pudiera ayudarme.

38voto

Fat Mind Puntos 826

La conjugación equivale a un cambio de perspectiva. He aquí tres ejemplos importantes para ilustrar este punto: representaciones notacionales de permutaciones con respecto a etiquetas en objetos, matrices que representan transformaciones lineales con respecto a bases ordenadas, y bucles a la el grupo fundamental como se estudia en la topología algebraica y la teoría de la homotropía.

$ \sf \color {DarkOrange}{Permutations}$ . Como has visto, $ \pi (x_1 \cdots x_n) \pi ^{-1}=( \pi (x_1) \cdots\pi (x_n))$ . Veamos si puedo explicar lo que esto significa. Supongamos que tenemos un conjunto $X$ y una permutación $ \sigma $ en él. Además, digamos que relabel todos los elementos de $X$ . (La forma de codificar esto es como una bijección $ \pi :X \to Y$ para algún conjunto de etiquetas $Y$ .) Entonces debería haber un correspondiente permutación $ \sigma '$ de $Y$ que hace lo mismo con $Y$ que $ \sigma $ hace a $X$ sólo con los elementos re-etiquetados. Más concretamente, si nuestra permutación $ \sigma $ envía $x_1$ a $x_2$ (en $X$ ) entonces $ \sigma '$ debería enviar $ \pi (x_1)$ a $ \pi (x_2)$ . Y por lo tanto el efecto resultante en los ciclos (y por lo tanto en los tipos de ciclo de cualquier permutación) se ven: como $ \sigma $ mapas $x_1 \mapsto x_2$ y $x_2 \mapsto x_3$ y así sucesivamente, debemos tener $ \sigma '$ mapeo $ \pi (x_1) \mapsto\pi (x_2)$ y $ \pi (x_2) \mapsto\pi (x_3)$ y así sucesivamente.

Considere el siguiente escenario. Una mujer ciega baraja un arreglo de $n$ cosas colocadas delante de ella - y ha memorizado mentalmente este barajado, incluso si no puede ver las etiquetas que se ponen en el $n$ cosas (por ejemplo, podrían tener los números $1$ a través de $n$ o la palabra "uno" a través de lo que sea, o esas mismas palabras en un idioma diferente, etc.). Nosotros, al ver a la gente, podemos describir su barajadura usando, digamos, notación cíclica o notación de una línea. En cualquier caso, si luego reetiquetamos los objetos y la mujer realiza su barajadura, entonces habrá un cambio en la forma en que representamos la permutación. En efecto, si intercambiamos las etiquetas, entonces ella baraja los objetos, y luego volvemos a intercambiar las etiquetas a sus originales, el efecto es el mismo que si ella acabara de realizar directamente la barajadura sin ningún tipo de intercambio de etiquetas. Esto significa lo siguiente diagrama de desplazamientos :

$$ \require {AMScd} \begin {CD} X @> \pi >> Y \\ @VV{ \sigma }V @VV{ \sigma '}V \\ X @> \pi >> Y \end {CD} \tag {$ \circ $}$$

Por lo tanto, tenemos $ \sigma ' \circ\pi = \pi\circ\sigma $ . Si $Y=X$ (así que usamos las mismas etiquetas para los objetos que baraja la mujer, ¡pero barajamos las etiquetas mismas!) entonces esto es $ \sigma ' \pi = \pi\sigma $ es decir. $ \sigma '= \pi\sigma\pi ^{-1}$ .

El diagrama $( \circ )$ es importante y omnipresente en las matemáticas. Es como nosotros transportar la estructura de la simetrías de algún objeto a las simetrías de un objeto isomórfico (que a menudo tiene lugar en algunos categoría ). Este patrón se repite en otros ejemplos. Aparece cuando queremos definir operadores equivalentes y entrelazados. Cada vez que algo sucede en una situación, y quieres convertirlo en otra situación, algo en esta línea está sucediendo.

Por otra parte, la teoría de grupos también tiene conjugación aparecen mucho simplemente porque es útil para explorar la estructura de un grupo. Dos elementos que se desplazan $ab=ba$ es equivalente a $b=aba^{-1}$ (¡puedes usar esto para calcular la probabilidad de que dos elementos se desplacen!). Si uno define los mapas $ \varphi_g (x):=gxg^{-1}$ entonces para cada uno $g \in G$ el mapa $ \varphi_g :G \to G$ es un automorfismo.

Se necesita la conjugación para definir subgrupos normales, que son núcleos de homomorfismos grupales y (equivalentemente) el clases de congruencia de la identidad cuyos cosets son las clases de congruencia de todos los demás elementos. Se utilizan subgrupos normales para separar los grupos en piezas llamadas factores de composición (véase el El teorema de Jordan Holder ) - de hecho, de esta manera los grupos cíclicos finitos se rompen en grupos cíclicos de primer orden con multiplicidades, exactamente análogo a que los números naturales se separen en productos de primos con multiplicidades. Y otro resultado teórico-estructural que proviene de la aritmética del orden de un grupo se ve en el tres Los teoremas de Sylow cuyas declaraciones y pruebas se basan en la conjugación.

$ \sf \color {DarkOrange}{Matrices}$ . A menudo los estudiantes son introducidos al álgebra lineal de una manera geométrica concreta, y a menudo los únicos vectores introducidos son vectores de coordenadas y los mapas lineales son simplemente definidos por matrices, pero hay más abstracción detrás de la imagen que esto. Los vectores no necesitan ser vectores coordinados, sólo necesitan ser cosas cosas que pueden ser sumadas o multiplicadas por escalares. Uno aprende un poco temprano que cada espacio vectorial tiene una base. Dada una base $\{e_1, \cdots ,e_n\}$ de un espacio vectorial $V$ de dimensión finita $n$ cualquier vector $v \in V$ puede escribirse como $v=x_1e_1+ \cdots +x_ne_n$ de manera única, y así podemos representar cualquier vector $v$ por un vector coordinado correspondiente $(x_1, \cdots ,x_n)$ . Así que en cierto sentido, nada de valor se pierde al restringir nuestra atención a los vectores de coordenadas (o eso es lo que un físico podría razonar, pero un teórico de conjuntos ciertamente argumentaría), pero a menudo queremos Cambiar bases.

Las bases son también cómo las transformaciones lineales $T:V \to W$ se representan como matrices. Di $\{f_i\}$ es una base para $W$ (con $ \dim =m$ ). Desde $T(v)=T(x_1e_1+ \cdots +x_ne_n)=x_1T(e_1)+ \cdots +x_nT(e_n)$ para saber dónde $T$ envía cada vector $v \in v$ basta con saber dónde $T$ envía los vectores de base, y además, cada uno de $T(e_1), \cdots ,T(e_n)$ puede escribirse como

$$T(e_1)= t_{11}f_1+ \cdots +t_{m1}f_m \\ \vdots \\ T(e_n)=t_{1n}f_1+ \cdots +t_{mn}f_m$$

Así, $T$ está especificada por un conjunto rectangular de escalares. Uno puede comprobar que si la escritura $T(v)$ en coordenadas (según la base elegida de $W$ ), el resultado es el mismo que si multiplicamos

$$ \begin {bmatrix}t_{11} & \cdots & t_{1n} \\ \vdots & \ddots & \vdots \\ t_{m1} & \cdots & t_{mn} \end {bmatrix} \begin {bmatrix}x_1 \\ \vdots \\ x_n \end {bmatrix}.$$

Se puede comprobar además que si $T:V \to W$ y $S:W \to U$ son dos transformaciones lineales y $ \circ $ denota la composición, luego la matriz de $S \circ T$ es el producto de la matriz de $S$ y $T$ (las bases de las notas deben ser elegidas para cada una de las $U,V,W$ para que esto tenga sentido). ¡De aquí es de donde viene la multiplicación de la matriz en primer lugar!

Ahora supongamos que tenemos $T:V \to V$ por la simplicidad, y $ \cal B$ es una base para $V$ . Denota la matriz correspondiente por $[T]_{ \cal B}$ . Si tenemos otra base ${ \cal C}$ ¿Cómo es que $[T]_{ \cal C}$ se relacionan con $[T]_{ \cal B}$ ?

(Supongo que en este punto debo observar que todas nuestras bases no sólo han sido bases, sino ordenó bases. Técnicamente esto es importante para la contabilidad, pero las fuentes a menudo olvidan mencionar esta calificación en absoluto!) Dado ${ \cal B}=\{e_i\}$ y ${ \cal C}=\{f_i\}$ hay una transformación única $P:V \to V$ con $P(e_i)=f_i$ para cada uno $i$ . Abreviemos ${ \cal C}=P{ \cal B}$ . La forma de averiguar lo que $[T]_{P{ \cal B}}$ es, es mirar cómo los vectores son afectados.

Denota por $[v]_{ \cal B}$ el vector $v$ escrito como un vector coordinado con respecto a la base ordenada $ \cal B$ . Entonces sabemos que $[Tv]_{ \cal B}=[T]_{ \cal B}[v]_{ \cal B}$ . Además, si $v=x_1e_1+ \cdots +x_ne_n$ entonces $P(v)=x_1f_1+ \cdots +x_nf_n$ y así concluimos $[Pv]_{P{ \cal B}}=[v]_{ \cal B}$ ambos son $(x_1, \cdots ,x_n)$ . Ahora desde $[v]_{ \cal B}=[Pv]_{P \cal B}$ y $[v]_{P \cal B}=[P^{-1}v]_{ \cal B}$ vemos que $[P]_{ \cal B}=[P]_{P \cal B}$ llamen a esto $ \Phi ^{-1}$ . Es comprensible, $ \Phi $ se llama matriz de cambio de base, porque $ \Phi :[v]_{ \cal B} \mapsto [v]_{P \cal B}$ para todos $v$ . Este $ \Phi $ es análogo a nuestra permutación $ \pi $ cambia nuestra perspectiva del espacio vectorial.

Luego $[Tv]_{P \cal B}=[P^{-1}Tv]_{ \cal B}=[P^{-1}T]_{ \cal B}[v]_{ \cal B}=[P]_{ \cal B}^{-1}[T]_{ \cal B}[Pv]_{P \cal B}= \Phi [T]_{ \cal B} \Phi ^{-1}[v]_{P \cal B}$ . Ya que esto vale para todos $v$ De esto podemos concluir $[T]_{P \cal B}= \Phi [T]_{ \cal B} \Phi ^{-1}$ . Así vemos que en el álgebra lineal, las matrices similares (es decir, conjugadas) representan la misma transformación lineal pero con respecto a diferentes bases ordenadas. (Vale, técnicamente vimos lo contrario, pero viendo que dada cualquier matriz $ \Phi $ hay bases correspondientes no es demasiado difícil después).

$ \sf \color {DarkOrange}{Loops}$ . Un camino en un espacio topológico $X$ es un mapa continuo $[0,1] \to X$ . Si reparamos el camino (en particular, si se traza la misma imagen) o si lo movemos continuamente, no cambiamos fundamentalmente el camino, lo que inspira la idea de un clase de homotopía del camino. Los caminos que comienzan y terminan en el mismo punto son bucles . Hay una forma obvia de concatenar dos caminos (trazar el primer camino primero, y el segundo camino segundo - aunque ambos con el doble de su "velocidad" habitual), y la equivalencia homotópica de los caminos es una relación de congruencia para estas operaciones, de modo que podemos definir la grupo fundamental $ \pi_1 (X,x)$ para ser las clases de homotropía de los bucles de $x$ a sí mismo, con esta noción intuitiva de composición. Vea el enlace para más información.

Intuitivamente, uno debe ser capaz de moverse continuamente $x$ en sí mismo y posteriormente mover los bucles basados en $ \pi_1 (X,x)$ por ahí con él. De hecho, si $ \gamma :[0,1] \to X$ es un camino desde $x$ a $y$ entonces le dimos cualquier (clase de bucle homotópico) $t \in\pi_1 (X,x)$ podemos formar un nuevo camino que comienza en $y$ va a lo largo $ \gamma $ al revés, va a lo largo $t$ de $x$ a sí mismo, y luego regresa a lo largo $ \gamma $ a $y$ . De esta manera, introducimos bucles $t$ con sede en $x$ y obtener bucles $t'$ con sede en $y$ . Escribamos esto como un diagrama:

$$ \begin {CD} x @> \gamma >> y \\ @VV{t}V @VV{t'}V \\ x @> \gamma >> y \end {CD} $$

Esto es un poco informal, pero deberías poder hacerte una idea. Así, $t'= \gamma\circ t \circ\gamma ^{-1}$ donde $ \gamma ^{-1}$ tiene la interpretación obvia: tomar $ \gamma $ al revés de $y$ a $x$ . Luego $t= \gamma ^{-1} \circ t' \circ\gamma $ así que este proceso es invertible. En conjunto esto significa que la conjugación es un isomorfismo $ \pi_1 (X,x) \to\pi_1 (X,y)$ . Si tenemos eso $x=y$ entonces esto equivale a tomar un bucle $ \gamma $ y moviendo otros bucles $t$ a su alrededor (manteniendo el punto base siempre encendido $ \gamma $ ) para conseguir un nuevo bucle $t'$ cuando finalmente volvamos al punto base original.

10voto

MJD Puntos 37705

Supongamos que estás pensando en las simetrías de algún objeto. (Los grupos son abstracciones de las simetrías de los objetos.) Por ejemplo, digamos que es una esfera. Una esfera tiene una familia de simetrías que son rotaciones alrededor del eje a través de los polos norte y sur. Centrémonos en una simetría en particular, la rotación por $17°$ alrededor de este eje polar, llámalo $ \pi $ para "polar". Tal vez entienda esta familia de simetrías bastante bien al contemplar la rotación de la Tierra.

Ahora le gustaría considerar la simetría que es la rotación de la esfera por $17°$ alrededor no del eje polar, sino del eje que pasa por Estocolmo. ¿Cómo puedes entender esto?

¡Resulta que es fácil! Rotar por $17°$ alrededor de Estocolmo, primero encuentra la rotación que lleva a Estocolmo hasta el polo norte. Llamemos a eso $ \sigma $ para "Estocolmo". Luego rotar la esfera por $17°$ alrededor del eje polar; eso es $ \pi $ que ya entendemos. Y luego rotar el polo norte de vuelta a Estocolmo, usando $ \sigma ^{-1}$ . Estocolmo subió al polo norte y luego regresó, por lo que es un punto fijo de toda la transformación, que es por lo tanto una rotación alrededor del eje a través de Estocolmo. He aquí, una rotación de $17°$ alrededor de Estocolmo, que obtuvimos como $ \sigma\pi\sigma ^{-1}$ .

Y en general supongamos que $x$ es cualquier simetría de la esfera. Debe llevar algún punto hasta el polo norte, digamos $p_x$ . Luego $x \pi x^{-1}$ es la rotación de la esfera por $17°$ alrededor del eje a través de $p_x$ .

De esto podemos ver que cualquier propiedad $ \pi $ tiene, todos los $ \sigma \pi \sigma ^{-1}$ tendrán las mismas propiedades. Por ejemplo, si el orden de $ \pi $ es $n$ entonces el orden de $ \sigma \pi \sigma ^{-1}$ es también $n$ porque está haciendo lo mismo, pero en una dirección diferente. De manera similar, si $ \pi $ actuando en algunas particiones establecidas la st en órbitas de ciertos tamaños, entonces también $ \sigma\pi\sigma ^{-1}$ por eso las permutaciones conjugadas tienen la misma duración de ciclo.

(Ahora quizás deberías ir a considerar las simetrías de un cuadrado. Deja que $h$ sea la voltereta horizontal, y dejar $r$ ser un $90°$ rotación. Luego $rhr^{-1}$ significa que haces un $90°$ rotación, luego un giro horizontal, y luego una rotación hacia atrás. ¿A qué se debe eso? La simetría resultante es se conjugan con la voltereta horizontal. Esta relación de conjugación divide las simetrías del cuadrado en clases de conjugación que son simetrías que en cierto sentido son iguales. Calcula las clases de conjugación para el cuadrado -hay cinco- y observa que las simetrías conjugadas son realmente intuitivamente similares entre sí).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X