5 votos

Multiplicación izquierda de un elemento de campo finito - Representación de matriz

¿Puede alguien explicarme por qué y cómo una multiplicación de la izquierda de un elemento de un campo finito GF (2 ^ k) puede verse como una transformación lineal en GF (2 ^ k) sobre GF (2)? Leí esto https://www.maa.org/sites/default/files/Wardlaw47052.pdf pero no está claro para mí.

¡Gracias!

8voto

wgrenard Puntos 189

El campo $\operatorname{GF}(2^k)$ es un finito dimensional espacio vectorial sobre $\operatorname{GF}(2)$ $k$ cualquier número entero mayor a cero, por lo que podemos hablar de transformaciones lineales en este espacio vectorial. Deje $\alpha \in \operatorname{GF}(2^k)$ y definir el siguiente mapa

$$ \begin{align} T_\alpha: \operatorname{GF}(2^k) &\to \operatorname{GF}(2^k) \\ x & \mapsto \alpha x \end{align} $$

Es decir, $T_\alpha$ es un mapa que lleva a un elemento de $x \in \operatorname{GF}(2^k)$ y la asigna a $\alpha x \in \operatorname{GF}(2^k)$. Esta es la multiplicación mapa que está hablando. Esto es de hecho una transformación lineal, ya que para $x, y \in \operatorname{GF}(2^k)$ $c \in \operatorname{GF}(2)$ tenemos que

$$ T_\alpha(x + y) = \alpha(x + y) = \alpha x + \alpha y = T_\alpha(x) + T_\alpha(y) $$

y

$$ T_\alpha(cx) = \alpha(cx) = c(\alpha x) = cT_\alpha(x) $$


Edit: Como se mencionó en el comentario por lhf, todo lo anterior argumento se sostiene si la extensión de campo $\operatorname{GF}(2^k)/\operatorname{GF}(2)$ es reemplazado por un campo arbitrario extensión de $L/K$. No es necesario que el campo $K$ ser finito, ni es necesario que el grado de la extensión finita. Esto es fácil de ver porque el hecho de que $L$ es un espacio vectorial sobre $K$, así como la linealidad de la $T_\alpha$ sigue simplemente desde el campo de los axiomas y el hecho de que $K$ es un subcampo de la $L$.

5voto

T. Gunn Puntos 1203

Echemos un vistazo a algo que esperamos son más familiarizados y que es el complejo y los números reales. Cada número complejo puede escribirse de forma única como $a + bi$$a, b \in \mathbf R$. Esto significa que $\{1, i\}$ es linealmente independiente sobre $\mathbf R$ (que es una base de $\mathbf C$$\mathbf R$). Una transformación lineal de $\mathbf C$ $\mathbf R$ es una función de $T : \mathbf C \to \mathbf C$ tal que

  • $T(w + z) = T(w) + T(z)$ por cada $w, z \in \mathbf C$
  • $T(az) = aT(z)$ por cada $z \in \mathbf C$ $a \in \mathbf R$

Cada transformación toma la forma

$$ T(a + bi) = (ar + bs) + (at + bu)i, $$

para algunos números reales $r,s,t,u$. Podemos escribir esta ecuación en forma matricial como

$$ \begin{pmatrix} r & s \\ t & u \end{pmatrix} \begin{pmatrix} a \\ b \end{pmatrix} = \begin{pmatrix} ar + bs \\ at + bu \end{pmatrix}. $$

Por ejemplo, el complejo de la conjugación del mapa de $T(a + bi) = a - bi$ corresponde a la ecuación de matriz

$$ \begin{pmatrix} 1 & 0 \\ 0 & - 1 \end{pmatrix}\begin{pmatrix} a \\ b \end{pmatrix} = \begin{pmatrix} a \\ -b \end{pmatrix}. $$

También podemos considerar el mapa de $T(a + bi) = (c + di)(a + bi)$ (es decir, $T$ multiplica a la izquierda por $c + di$). La expansión de esto tenemos

$$T(a + bi) = (c + di)(a + bi) = (ac - bd) + (ad + bc)i, $$

que corresponde a la ecuación de matriz

$$ \begin{pmatrix} c & -d \\ d & c \end{pmatrix} \begin{pmatrix} a \\ b \end{pmatrix} = \begin{pmatrix} ac - bd \\ ad + bc \end{pmatrix}. $$

Para ${\rm GF}(2^k)$ ${\rm GF}(2)$ es la misma idea pero en vez de $\{1, i\}$ como base tienes alguna otra base.

1voto

Eric Brynsvold Puntos 646

Gracias por sus respuestas. Así, supongamos tener $\mathbb{F}_{2^8}$$\mathbb{F}_{2}$,$\mathbb{F}_{2^8}=\dfrac{\mathbb{F}_{2}[x]}{<x^3+x+1>}$. Una base es$\{1,\alpha,\alpha^{2}\}$,$\alpha^{3}=\alpha+1$. Consideremos la izquierda de la multiplicación por un elemento genérico $a_{0}+a_{1}\alpha+a_{2}\alpha^{2}$. Así, $$(a_{0}+a_{1}\alpha+a_{2}\alpha^{2})(b_{0}+b_{1}\alpha+b_{2}\alpha^{2})$$ and one have $(a_{0}b_{0}+a_{2}b_{1}+a_{1}b_{2})+(a_{0}b_{1}+a_{1}b_{0}+a_{1}b_{2}+a_{2}b_{2})\alpha+(a_{0}b_{2}+a_{1}b_{1}+a_{2}b_{0}+a_{2}b_{1}+a_{2}b_{2})\alpha^2$.

La representación de la matriz es $$\begin{bmatrix} a_{0} & a_{2} & a_{1} \\ a_{1} & a_{0} & a_{1}+a_{2} \\ a_{2} & a_{1}+a_{2} & a_{0}+a_{2} \end{bmatrix} \begin{bmatrix} b_{0} \\ b_{1} \\ b_{2}. \end{bmatrix}$$ Por lo tanto, si multiplicamos por $\alpha$ tenemos que $a_{0}=0, a_{1}=1$$a_{2}=0$, de modo que obtenemos \begin{bmatrix} 0 & 0 & 1 \\ 1 & 0 & 1 \\ 0 & 1 & 0 \end{bmatrix} que es el compañero de la matriz de $x^3+x+1$. Es eso correcto?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X