8 votos

Cuántos geométrica de las interpretaciones que hace la multiplicación de la matriz?

Me pregunto que ¿cuál es la geométrica interpertation de la multiplicación de la matriz. Y de cuántas maneras diferentes se podría interpretar? El uso obvio es el de las transformaciones... yo entiendo un poco en 3D, pero ¿qué hay de la n-dimensional de la multiplicación - - - ¿qué tipo de transformaciones que estaría allí?

Entonces, lo que quiero saber es: 1. ¿Cómo podemos interpretar la multiplicación de la matriz? 2. En cuántas maneras podemos interpretar? 3. Cómo en realidad los coeficientes de jugar un papel en las transformaciones 4. Cómo interpretar más de matriz 3D multiplicaciones

Muchas gracias.

6voto

Ben Millwood Puntos 8924

Con el fin de tener una comprensión geométrica de la multiplicación de la matriz, primero debemos establecer una razonable comprensión geométrica de las matrices de sí mismos. Hacemos esto mediante la representación de puntos en el espacio como vectores columna (cómo hacer esto es en sí mismo algo sutil, pero voy a escatimar en los detalles por razones de brevedad) y, a continuación, utilizando matrices para representar las transformaciones de vectores columna, que es lo que voy a escribir en forma de filas $(x_1,x_2,\dots,x_n)$ por conveniencia.

Para algunos $m \times n$ matriz $A$, y un vector de columna $\mathbf x = (x_1, x_2, \dots, x_n)$, vamos a definir la transformación de $f_A(\mathbf x)=\mathbf y = (y_1, \dots,y_m)$$y_i = \sum_{j = 0}^n A_{ij} x_j$.

Ahora supongamos $A$ $m \times n$ matriz y $B$ $n \times p$ matriz, y tienen funciones correspondientes en la columna de vectores $f_A$$f_B$. Observe que $f_B$ salidas con los vectores de $n$ componentes, y $f_A$ toma vectores de $n$ componentes de entrada: nos podemos preguntar ¿qué pasa si ponemos la salida de $f_B$ en la entrada de $f_A$. Deje $\mathbf v = (v_1,\dots,v_p)$, y escribe cosas como $f_B(\mathbf v)_j$ a significar "la $j^\mathrm{th}$ componente de $f_B(\mathbf v)$". Entonces:

\begin{align*} f_A(f_B(\mathbf v))_i &= \sum_{j=0}^n A_{ij} f_B(\mathbf v)_j \\ &= \sum_{j=0}^n A_{ij} \sum_{k=0}^p B_{jk} v_k \\ &= \sum_{k=0}^p \sum_{j=0}^n A_{ij} B_{jk} v_k \\ &= \sum_{k=0}^p (AB)_{ik}v_k \\ &= f_{AB}(\mathbf v) \end{align*}

donde se define la multiplicación de la matriz $AB$ $m\times p$ de la matriz dada por $(AB)_{ik} = \sum_{j=0}^n A_{ij} B_{jk}$.

Así que cuando nos asociamos con funciones de matrices en la forma que he descrito anteriormente, la multiplicación de la matriz de $A$ $B$ da la matriz cuya función es la función de $B$, seguido por la función de $A$. Tenga en cuenta que para que esta tenga sentido, la entrada de $A$ tiene que ser del mismo tamaño que la salida de $B$, y así el ancho de $A$ tiene que ser igual a la altura de $B$, que es precisamente la condición para la multiplicación de la matriz a tener sentido.

0voto

Fenfen Puntos 6

Ayuda a pensar en las bases primera. Considerar el espacio Euclidiano $\mathbb{R}^{n}$, se extendió por $\{x_{1},\dots,x_{n}\}$. El estándar de base para este espacio es $\left(\begin{matrix}1\\ 0\\ \vdots\\ 0 \end{de la matriz}\right)\left(\begin{matrix}0\\ 1\\ \vdots\\ 0 \end{de la matriz}\right),\dots,\left(\begin{matrix}0\\ \vdots\\ 0\\ 1 \end{de la matriz}\right)$, pero usted puede usar cualquier conjunto de vectores (aunque el uso de este estándar hace un poco más fácil entender lo que está sucediendo). Una matriz (o transformación lineal $A$) proporciona las instrucciones, por así decirlo, de cómo asignar estos vectores en su nuevo espacio de $\mathbb{R}^{m}$. Deje $A=\left(A(x_{1})|\cdots|A(x_{n})\right)$. La columna de $A_{i}$ proporciona el vector de $x_{i}$ mapas en virtud de la transformación de $A$. Por ahora, no piensa mucho acerca de los coeficientes. Creo más acerca de las columnas. Por ejemplo, la matriz de $$ A=\left(x_{1},0\dots,0\right) $$

los mapas de la $x_{1}$ a $x_{1}$ y aniquila el otro $x_{j}$. Ahora bien, si consideramos que cualquier vector, $X$, se puede escribir en términos de la vectores de la base de $\mathbb{R}^{n}$$X=\sum_{i=1}^{n}c_{i}x_{i}$, y podemos ver lo $A$ lo hace a él. Simplemente tome $AX=A\sum_{i=1}^{n}c_{i}x_{i}=\sum_{i=1}^{n}c_{i}Ax_{i}=\sum_{i=1}^{n}c_{i}A_{i}$ por linealidad, donde $A_{i}$ $i^{th}$ columna de $A$. Así podemos ver que $A$, en este caso, se extrae la primera coordenada de $X$ y la multiplica por $x_{1}$. Podemos considerar más complicado ejemplos $$ A=\left(x_{2},x_{1},0,\dots,0\right) $$

En este ejemplo, $A$ envía la primera base de vectores a la segunda base vector, y el segunda base de vectores de la primera base de vectores. Así tenemos $AX=c_{1}x_{2}+c_{2}x_{1}$.

Ahora podemos considerar las matrices de $A$ que son atravesados por las combinaciones lineales de la $x_{1}$. Por ejemplo $$ A=\left(x_{1}+x_{2},0,\dots,0\right) $$

envía $x_{1}$$x_{1}+x_{2}$. es decir, tendríamos $AX=c_{1}(x_{1}+x_{2})+0$. Muchas de las transformaciones que hemos puede considerarse de la misma manera.

Considere la posibilidad de rotación de las matrices. La rotación de las matrices de enviar los vectores de la base $x_{1},\dots,x_{n}$ a un nuevo conjunto de vectores de la base que se hayan girado por un conjunto de ángulos $\{\theta,\phi_{1},\dots,\phi_{n-1}\}$. Través de lo que hemos se ha visto anteriormente, podemos encontrar lo que la matriz a cualquier vector de $X=\sum_{i=1}^{n}c_{i}x_{i}$.

Espero que esto ayude!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X