5 votos

¿Qué "es" una matriz en el contexto de un espacio vectorial?

Estoy familiarizado con la definición de un espacio vectorial $V$ sobre un campo $F$

También estoy cómodo con la idea de que una matriz "representa" un lineal mapa de un espacio vectorial $V$ a otro espacio vectorial $W$.

El artículo de Wiki en Espacios Vectoriales dice esto:

Las Matrices son una noción útil para codificar lineal mapas.

Pero esto entra en conflicto con lo que yo creo que una matriz es. Es una matriz de una "cosa" o "elemento" que nos puede escribir y multiplicar por otros matricies/vectores? O es simplemente una "representación" de un lineal de mapa entre los espacios? Lo hace depender del contexto?

Si se trata de una "cosa" - entonces, ¿cómo se define la multiplicación de los objetos del espacio vectorial con los objetos de un tipo diferente que no pertenecen al espacio vectorial?

Podemos escribir una significativa ecuación como:

$M \cdot \textbf{x} = \textbf{y}$

Donde x e y son vectores, y M es una matriz.

cómo realizar la multiplicación, pero me parece mal que me $M$ es de otra "especie" (disculpas - no estoy lo suficientemente familiarizado con álgebra abstracta para saber la correcta clasificación de conjunto/grupo/etc.) de lo que nos están multiplicando.

Lo siento si esto es vago, solo estoy esperando que alguien podría ser capaz de aclarar esta ligera confusión.

Gracias!

3voto

matt burns Puntos 2094

Comprender la relación entre la multiplicación de la matriz lineal y mapas, es importante entender que una lineal mapa está determinada únicamente por lo que sucede a una base.

Para ser más específicos, considere la posibilidad de un lineal mapa de $\phi: V \to W $. Por el bien de ejemplo, imaginemos que $V$ $W$ son finito dimensionales. Decir $\dim_{\ F} (V) = n$$\dim_{\ F}(W) = m$. Ahora, escoge una base $B=\{v_1, \ldots, v_n\}$$V$. Afirmo que el lineal mapa de $\phi$ está determinada únicamente por $\phi(v_1), \ldots, \phi(v_n)$. Ahora para un arbitrario $v \in V$, escribir $v = c_1 v_1 + \ldots + c_n v_n$ para determinada únicamente los coeficientes de $c_i \in F$. A continuación,$\phi(v) = \phi(c_1 v_1 + \ldots + c_n v_n)=c_1\phi(v_1)+ \ldots + c_n\phi(v_n)$, que sigue automáticamente a partir de la linealidad de la $\phi$.

Si usted examina la última ecuación, usted debe encontrar que esta información puede ser codificada por la multiplicación de una $m\times n$ matriz con un $n \times 1$ vector. Las columnas de la matriz se $\phi(v_1), \ldots, \phi(v_n)$, estos expresado en alguna base para $W$, mientras que el vector de las coordenadas de $v$ en base a la $B$.

Por lo tanto, una vez que hemos elegido bases para nuestro finito dimensionales espacios, hay una perfecta correspondencia entre estos lineal mapas y $m \times n$ matrices. Para cada opción de bases de $V$$W$, obtenemos un isomorfismo de espacios vectoriales $L(V, W) \cong M_{m \times n}(F)$ donde $L(V, W)$ es el espacio de lineal mapas de $V$ $W$ $M_{m \times n}(F)$(a los que podríamos llamar también a $F^{m\times n}$) es el espacio de la $m \times n$ matrices con entradas en $F$. Cuando vemos a una matriz en forma lineal mapa sin ningún otro contexto, bien podemos imaginar a $V = \mathbb{R}^n$ $W = \mathbb{R}^m$ con el estándar de bases. En esta imagen, la multiplicación de matrices con dimensiones adecuadas corresponde a la composición de los lineales de los mapas. En el caso especial $V = W$, obtenemos las matrices cuadradas, y las correspondencias $L(V, V) \cong M_{n \times n}(F)$ $F$- álgebra isomorphisms.

En cierto sentido, la multiplicación de la matriz se entiende mejor como una ventana en el funcionamiento interno de un lineal mapa. Esta no es la única forma de ver una matriz, pero la conexión entre la matriz de operaciones y las operaciones disponibles para el lineal de los mapas es ineludible.

3voto

HappyEngineer Puntos 111

Nota, una matriz no representa una transformación lineal $V\to W$, a menos que se han fijado las bases para $V,W$.

Pero usted está atascado en creer que la matriz debe ser "un" tipo de cosas. Puede ser pensado como una cosa propia, o puede ser pensado como una transformación lineal de $\mathbb k^n\to\mathbb k^m$, y, en particular, de cómo actúa en sus bases habituales.

Escoger un punto de vista es simplemente la definición de las dos definiciones son completamente equivalentes. Nada es realmente obtenida por tratamiento de una de estas ideas como "principal", y probablemente es mejor acostumbrarse a una dicotomía. A veces es útil pensar en las matrices en sus propios derechos, a veces es útil pensar en ellos como transformaciones lineales.

Por ejemplo, en las matrices, se hace mucho más evidente sentido para investigar los valores propios que no están en el campo base $k$. Es más difícil, al principio, para ver lo que significaría para una transformación lineal $T:V\to V$. (Que sin duda puede ser definido, no es inicialmente obvio.) El hecho de que estos autovalores son el mismo, no importa qué base podemos elegir para $V$, sin embargo, es realmente interesante, y por lo tanto claramente es una propiedad de la transformación, no de la matriz.

Por otro lado, mucha de la fila cálculos que primero aprender para matrices son realmente acerca de los cambios de las bases en el espacio vectorial(s).

A veces, las operaciones son en realidad "sobre" la transformación, y, a veces, la operación está profundamente ligado a la base. Por ejemplo, la "transposición" de una matriz está profundamente ligado a una base, pero el factor determinante, el rastro, la autovalores, rango, etc. de una matriz son independientes de la base. Cuando realmente no se preocupan por la base, a menudo estamos tratando con algo que es "principalmente" una transformación lineal.

Supongo que la dicotomía comienza a tener problemas al tratar con infinito-dimensional espacios vectoriales.

1voto

Leon Dvoršak Puntos 1

Si, de manera consistente, mira las matrices como transformaciones lineales, hay una manera de comprender la multiplicación como una transformación tan bien así que no son "diferentes especies".

Usted puede haber visto la multiplicación conectado a la operación Y en la lógica (distributividad), combinatoria (discontinuo posibilidad), probabilidad y similares. El entendimiento común de las matrices es muy similar a la de estos (y con razones similares). Las transformaciones se multiplican cuando se aplica una transformación Y, a CONTINUACIÓN, el siguiente. Aviso de que hay un temporal de calidad para esta aplicación.

Por lo tanto, si usted sigue un punto de $p$ (visto como un vector a partir de alguna base de origen) a través de esta transformación, el punto después de la primera transformación de $M_1$ $M_1 p$ Y LUEGO, después de aplicar otra transformación $M_2$ el punto es, finalmente,$M_2 M_1 p$.

La razón no es inherente temporal parte de la operación es que la multiplicación de matrices no es conmutativa, ni es la aplicación de transformaciones lineales. El orden de aplicación de las transformaciones de la materia.

Parte de la dificultad en la comprensión de que las matrices están asociados con las transformaciones es que usted puede estar pensando que las matrices necesidad números en ellos y que las transformaciones no se necesita una base de ser significativo. Sin embargo, así como de manera significativa puede hablar de transformaciones sin una base mediante la descripción de sus propiedades, sólo se puede así hablar de matrices a través de las ecuaciones que obedecer sin hacer referencia a una base específica o de la solución. El espacio de soluciones de la ecuación es el mismo que el espacio de la transformación de las representaciones de las transformaciones con la propiedad.

Por ejemplo, puede llamar a las transformaciones que se aplica dos veces al devolver el espacio a su forma original como "reflexiones". Usted puede mirar en el espacio de las matrices de obedecer $R^2 = I$ y el estudio de la misma cosa. Del mismo modo, si usted llama a las transformaciones que se aplica dos veces al son de la misma como se aplica sólo una vez como "proyecciones", se puede estudiar el $P^2 = P$ y determinar las propiedades de las soluciones hay.

NOTA: la idea de buscar en la multiplicación como Y, a CONTINUACIÓN, se toma muy en serio cuando los matemáticos se ve en la que describe la lógica de la transformación. Este se encuentra bastante en el estudio temporal de la lógica cuántica lógicas y otras no estándar de la lógica de la investigación. A continuación, la conexión puede ser visto como una extensión de la ya existente para la lógica estándar. Además tiene un entendimiento ligeramente diferente de lo que uno podría esperar ingenuamente del caso, pero también tiene una comprensión natural.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X