La conjugación equivale a un cambio de perspectiva. He aquí tres ejemplos importantes para ilustrar este punto: representaciones notacionales de permutaciones con respecto a etiquetas en objetos, matrices que representan transformaciones lineales con respecto a bases ordenadas, y bucles a la el grupo fundamental como se estudia en la topología algebraica y la teoría de la homotropía.
$ \sf \color {DarkOrange}{Permutations}$ . Como has visto, $ \pi (x_1 \cdots x_n) \pi ^{-1}=( \pi (x_1) \cdots\pi (x_n))$ . Veamos si puedo explicar lo que esto significa. Supongamos que tenemos un conjunto $X$ y una permutación $ \sigma $ en él. Además, digamos que relabel todos los elementos de $X$ . (La forma de codificar esto es como una bijección $ \pi :X \to Y$ para algún conjunto de etiquetas $Y$ .) Entonces debería haber un correspondiente permutación $ \sigma '$ de $Y$ que hace lo mismo con $Y$ que $ \sigma $ hace a $X$ sólo con los elementos re-etiquetados. Más concretamente, si nuestra permutación $ \sigma $ envía $x_1$ a $x_2$ (en $X$ ) entonces $ \sigma '$ debería enviar $ \pi (x_1)$ a $ \pi (x_2)$ . Y por lo tanto el efecto resultante en los ciclos (y por lo tanto en los tipos de ciclo de cualquier permutación) se ven: como $ \sigma $ mapas $x_1 \mapsto x_2$ y $x_2 \mapsto x_3$ y así sucesivamente, debemos tener $ \sigma '$ mapeo $ \pi (x_1) \mapsto\pi (x_2)$ y $ \pi (x_2) \mapsto\pi (x_3)$ y así sucesivamente.
Considere el siguiente escenario. Una mujer ciega baraja un arreglo de $n$ cosas colocadas delante de ella - y ha memorizado mentalmente este barajado, incluso si no puede ver las etiquetas que se ponen en el $n$ cosas (por ejemplo, podrían tener los números $1$ a través de $n$ o la palabra "uno" a través de lo que sea, o esas mismas palabras en un idioma diferente, etc.). Nosotros, al ver a la gente, podemos describir su barajadura usando, digamos, notación cíclica o notación de una línea. En cualquier caso, si luego reetiquetamos los objetos y la mujer realiza su barajadura, entonces habrá un cambio en la forma en que representamos la permutación. En efecto, si intercambiamos las etiquetas, entonces ella baraja los objetos, y luego volvemos a intercambiar las etiquetas a sus originales, el efecto es el mismo que si ella acabara de realizar directamente la barajadura sin ningún tipo de intercambio de etiquetas. Esto significa lo siguiente diagrama de desplazamientos :
$$ \require {AMScd} \begin {CD} X @> \pi >> Y \\ @VV{ \sigma }V @VV{ \sigma '}V \\ X @> \pi >> Y \end {CD} \tag {$ \circ $}$$
Por lo tanto, tenemos $ \sigma ' \circ\pi = \pi\circ\sigma $ . Si $Y=X$ (así que usamos las mismas etiquetas para los objetos que baraja la mujer, ¡pero barajamos las etiquetas mismas!) entonces esto es $ \sigma ' \pi = \pi\sigma $ es decir. $ \sigma '= \pi\sigma\pi ^{-1}$ .
El diagrama $( \circ )$ es importante y omnipresente en las matemáticas. Es como nosotros transportar la estructura de la simetrías de algún objeto a las simetrías de un objeto isomórfico (que a menudo tiene lugar en algunos categoría ). Este patrón se repite en otros ejemplos. Aparece cuando queremos definir operadores equivalentes y entrelazados. Cada vez que algo sucede en una situación, y quieres convertirlo en otra situación, algo en esta línea está sucediendo.
Por otra parte, la teoría de grupos también tiene conjugación aparecen mucho simplemente porque es útil para explorar la estructura de un grupo. Dos elementos que se desplazan $ab=ba$ es equivalente a $b=aba^{-1}$ (¡puedes usar esto para calcular la probabilidad de que dos elementos se desplacen!). Si uno define los mapas $ \varphi_g (x):=gxg^{-1}$ entonces para cada uno $g \in G$ el mapa $ \varphi_g :G \to G$ es un automorfismo.
Se necesita la conjugación para definir subgrupos normales, que son núcleos de homomorfismos grupales y (equivalentemente) el clases de congruencia de la identidad cuyos cosets son las clases de congruencia de todos los demás elementos. Se utilizan subgrupos normales para separar los grupos en piezas llamadas factores de composición (véase el El teorema de Jordan Holder ) - de hecho, de esta manera los grupos cíclicos finitos se rompen en grupos cíclicos de primer orden con multiplicidades, exactamente análogo a que los números naturales se separen en productos de primos con multiplicidades. Y otro resultado teórico-estructural que proviene de la aritmética del orden de un grupo se ve en el tres Los teoremas de Sylow cuyas declaraciones y pruebas se basan en la conjugación.
$ \sf \color {DarkOrange}{Matrices}$ . A menudo los estudiantes son introducidos al álgebra lineal de una manera geométrica concreta, y a menudo los únicos vectores introducidos son vectores de coordenadas y los mapas lineales son simplemente definidos por matrices, pero hay más abstracción detrás de la imagen que esto. Los vectores no necesitan ser vectores coordinados, sólo necesitan ser cosas cosas que pueden ser sumadas o multiplicadas por escalares. Uno aprende un poco temprano que cada espacio vectorial tiene una base. Dada una base $\{e_1, \cdots ,e_n\}$ de un espacio vectorial $V$ de dimensión finita $n$ cualquier vector $v \in V$ puede escribirse como $v=x_1e_1+ \cdots +x_ne_n$ de manera única, y así podemos representar cualquier vector $v$ por un vector coordinado correspondiente $(x_1, \cdots ,x_n)$ . Así que en cierto sentido, nada de valor se pierde al restringir nuestra atención a los vectores de coordenadas (o eso es lo que un físico podría razonar, pero un teórico de conjuntos ciertamente argumentaría), pero a menudo queremos Cambiar bases.
Las bases son también cómo las transformaciones lineales $T:V \to W$ se representan como matrices. Di $\{f_i\}$ es una base para $W$ (con $ \dim =m$ ). Desde $T(v)=T(x_1e_1+ \cdots +x_ne_n)=x_1T(e_1)+ \cdots +x_nT(e_n)$ para saber dónde $T$ envía cada vector $v \in v$ basta con saber dónde $T$ envía los vectores de base, y además, cada uno de $T(e_1), \cdots ,T(e_n)$ puede escribirse como
$$T(e_1)= t_{11}f_1+ \cdots +t_{m1}f_m \\ \vdots \\ T(e_n)=t_{1n}f_1+ \cdots +t_{mn}f_m$$
Así, $T$ está especificada por un conjunto rectangular de escalares. Uno puede comprobar que si la escritura $T(v)$ en coordenadas (según la base elegida de $W$ ), el resultado es el mismo que si multiplicamos
$$ \begin {bmatrix}t_{11} & \cdots & t_{1n} \\ \vdots & \ddots & \vdots \\ t_{m1} & \cdots & t_{mn} \end {bmatrix} \begin {bmatrix}x_1 \\ \vdots \\ x_n \end {bmatrix}.$$
Se puede comprobar además que si $T:V \to W$ y $S:W \to U$ son dos transformaciones lineales y $ \circ $ denota la composición, luego la matriz de $S \circ T$ es el producto de la matriz de $S$ y $T$ (las bases de las notas deben ser elegidas para cada una de las $U,V,W$ para que esto tenga sentido). ¡De aquí es de donde viene la multiplicación de la matriz en primer lugar!
Ahora supongamos que tenemos $T:V \to V$ por la simplicidad, y $ \cal B$ es una base para $V$ . Denota la matriz correspondiente por $[T]_{ \cal B}$ . Si tenemos otra base ${ \cal C}$ ¿Cómo es que $[T]_{ \cal C}$ se relacionan con $[T]_{ \cal B}$ ?
(Supongo que en este punto debo observar que todas nuestras bases no sólo han sido bases, sino ordenó bases. Técnicamente esto es importante para la contabilidad, pero las fuentes a menudo olvidan mencionar esta calificación en absoluto!) Dado ${ \cal B}=\{e_i\}$ y ${ \cal C}=\{f_i\}$ hay una transformación única $P:V \to V$ con $P(e_i)=f_i$ para cada uno $i$ . Abreviemos ${ \cal C}=P{ \cal B}$ . La forma de averiguar lo que $[T]_{P{ \cal B}}$ es, es mirar cómo los vectores son afectados.
Denota por $[v]_{ \cal B}$ el vector $v$ escrito como un vector coordinado con respecto a la base ordenada $ \cal B$ . Entonces sabemos que $[Tv]_{ \cal B}=[T]_{ \cal B}[v]_{ \cal B}$ . Además, si $v=x_1e_1+ \cdots +x_ne_n$ entonces $P(v)=x_1f_1+ \cdots +x_nf_n$ y así concluimos $[Pv]_{P{ \cal B}}=[v]_{ \cal B}$ ambos son $(x_1, \cdots ,x_n)$ . Ahora desde $[v]_{ \cal B}=[Pv]_{P \cal B}$ y $[v]_{P \cal B}=[P^{-1}v]_{ \cal B}$ vemos que $[P]_{ \cal B}=[P]_{P \cal B}$ llamen a esto $ \Phi ^{-1}$ . Es comprensible, $ \Phi $ se llama matriz de cambio de base, porque $ \Phi :[v]_{ \cal B} \mapsto [v]_{P \cal B}$ para todos $v$ . Este $ \Phi $ es análogo a nuestra permutación $ \pi $ cambia nuestra perspectiva del espacio vectorial.
Luego $[Tv]_{P \cal B}=[P^{-1}Tv]_{ \cal B}=[P^{-1}T]_{ \cal B}[v]_{ \cal B}=[P]_{ \cal B}^{-1}[T]_{ \cal B}[Pv]_{P \cal B}= \Phi [T]_{ \cal B} \Phi ^{-1}[v]_{P \cal B}$ . Ya que esto vale para todos $v$ De esto podemos concluir $[T]_{P \cal B}= \Phi [T]_{ \cal B} \Phi ^{-1}$ . Así vemos que en el álgebra lineal, las matrices similares (es decir, conjugadas) representan la misma transformación lineal pero con respecto a diferentes bases ordenadas. (Vale, técnicamente vimos lo contrario, pero viendo que dada cualquier matriz $ \Phi $ hay bases correspondientes no es demasiado difícil después).
$ \sf \color {DarkOrange}{Loops}$ . Un camino en un espacio topológico $X$ es un mapa continuo $[0,1] \to X$ . Si reparamos el camino (en particular, si se traza la misma imagen) o si lo movemos continuamente, no cambiamos fundamentalmente el camino, lo que inspira la idea de un clase de homotopía del camino. Los caminos que comienzan y terminan en el mismo punto son bucles . Hay una forma obvia de concatenar dos caminos (trazar el primer camino primero, y el segundo camino segundo - aunque ambos con el doble de su "velocidad" habitual), y la equivalencia homotópica de los caminos es una relación de congruencia para estas operaciones, de modo que podemos definir la grupo fundamental $ \pi_1 (X,x)$ para ser las clases de homotropía de los bucles de $x$ a sí mismo, con esta noción intuitiva de composición. Vea el enlace para más información.
Intuitivamente, uno debe ser capaz de moverse continuamente $x$ en sí mismo y posteriormente mover los bucles basados en $ \pi_1 (X,x)$ por ahí con él. De hecho, si $ \gamma :[0,1] \to X$ es un camino desde $x$ a $y$ entonces le dimos cualquier (clase de bucle homotópico) $t \in\pi_1 (X,x)$ podemos formar un nuevo camino que comienza en $y$ va a lo largo $ \gamma $ al revés, va a lo largo $t$ de $x$ a sí mismo, y luego regresa a lo largo $ \gamma $ a $y$ . De esta manera, introducimos bucles $t$ con sede en $x$ y obtener bucles $t'$ con sede en $y$ . Escribamos esto como un diagrama:
$$ \begin {CD} x @> \gamma >> y \\ @VV{t}V @VV{t'}V \\ x @> \gamma >> y \end {CD} $$
Esto es un poco informal, pero deberías poder hacerte una idea. Así, $t'= \gamma\circ t \circ\gamma ^{-1}$ donde $ \gamma ^{-1}$ tiene la interpretación obvia: tomar $ \gamma $ al revés de $y$ a $x$ . Luego $t= \gamma ^{-1} \circ t' \circ\gamma $ así que este proceso es invertible. En conjunto esto significa que la conjugación es un isomorfismo $ \pi_1 (X,x) \to\pi_1 (X,y)$ . Si tenemos eso $x=y$ entonces esto equivale a tomar un bucle $ \gamma $ y moviendo otros bucles $t$ a su alrededor (manteniendo el punto base siempre encendido $ \gamma $ ) para conseguir un nuevo bucle $t'$ cuando finalmente volvamos al punto base original.