Si tienes dos vectores viviendo en el subespacio $V$ y quieres tomar el producto punto, parece que técnicamente no puedes hacer esta operación porque si escribes ambos vectores en forma matricial, ambos serían vectores columna que viven en el mismo subespacio. Para tomar el producto punto, tendrías que convertir uno de los vectores en un vector fila que vive en un subespacio dual completamente diferente $V^*$ y luego tomar el producto punto de este vector del espacio dual con el vector columna. ¿Es todo esto cierto?
Respuestas
¿Demasiados anuncios?Tienes razón en que aquí pasa algo.
En un espacio vectorial general de dimensión finita, no existe una elección canónica de isomorfismo de $V$ a $V^*$ aunque son isomorfos porque tienen la misma dimensión. Sin embargo, en un espacio vectorial general de dimensión finita, ¡tampoco existe una elección canónica del producto interior!
Teniendo un producto interior nos da un isomorfismo $\phi: V \to V^*$ : asigna un vector $v \in V$ al elemento $w \mapsto \langle v,w\rangle$ en $V^*$ y podemos comprobar que será un isomorfismo.
El camino inverso es un poco más complicado, ya que los productos internos deben satisfacer $\langle v,v \rangle \ge 0$ pero los isomorfismos "desconocen" esta estructura. (En particular, para espacios vectoriales sobre campos finitos, podemos tener un isomorfismo $\phi : V \to V^*$ pero no tiene sentido tener un producto interno). Sin embargo, si se tiene un isomorfismo $\phi : V \to V^*$ se puede definir $\langle v, w\rangle = \phi(v)(w)$ y ésta será al menos una forma bilineal. (Hacerla artificialmente simétrica es fácil y se deja como ejercicio).
Cuando hablamos de vectores escritos como vectores columna, en realidad hemos dado a nuestro espacio vectorial mucha estructura: hemos elegido una base estándar, y estamos escribiendo nuestros vectores en términos de sus coordenadas en esa base. Aquí, tomar la transposición para convertir un vector columna en un vector fila es exactamente el isomorfismo que corresponde a tomar el producto punto como nuestro producto interior.
Este tipo de preguntas es la razón por la que me opongo a utilizar el término "producto punto" como sinónimo del producto interno euclidiano sobre $\mathbb R^n$ que es lo que supongo que quiere decir aquí. Es importante distinguir entre los dos, al igual que es importante distinguir entre los elementos $v$ de un espacio vectorial y sus coordenadas $[v]_{\mathcal B}$ relativa a alguna base ordenada $\mathcal B$ especialmente cuando los propios vectores son tuplas de coordenadas.
Los productos internos son independientes de la elección de la base. No son más que funciones que toman un par de vectores y escupen un escalar con ciertas propiedades. Sin embargo, la expresión de un producto interior $\langle\cdot,\cdot\rangle$ en términos de coordenadas de esos vectores depende de la base. En general, no se da el caso de que $\langle v,w\rangle = [v]_{\mathcal B}^T[w]_{\mathcal B}$ . De hecho, esto sólo se cumple cuando $\mathcal B$ es ortonormal respecto a $\langle\cdot,\cdot\rangle$ . El lado derecho de esa expresión es lo que yo llamaría un "producto punto": es un cálculo específico que implica un par de $n\times 1$ matrices. Ahora bien, ocurre que si los vectores son elementos de $\mathbb R^n$ entonces la base estándar es ortonormal con respecto al producto interior euclidiano y sus tuplas de coordenadas estándar son idénticas a los propios vectores, por lo que se puede ser algo arrogante con estas distinciones en ese contexto. En general, sin embargo, la fórmula de coordenadas para un producto interno va a ser de la forma $\langle v,w\rangle = [v]_{\mathcal B}^TG[w]_{\mathcal B}$ para alguna matriz simétrica fija $G$ que viene determinado por el producto interior y $\mathcal B$ . Es un ejercicio que merece la pena para averiguar qué $G$ es en términos de matrices de cambio de base.
Esto no es menos cierto en un subespacio $V$ de un espacio producto interior. El producto interior se hereda del espacio padre, y da el mismo resultado independientemente de si restringimos nuestra atención a $V$ o no. Por otro lado, su expresión en coordenadas relativas a alguna base de $V$ depende de nuevo de la elección de la base: si la base es ortonormal, entonces será igual al producto punto de las tuplas de coordenadas, aunque esas tuplas de coordenadas serán ahora más cortas de lo que eran al considerar todo el espacio padre.
Existe una condición similar para convertir la aplicación de un covector a un vector en una simple multiplicación de matrices: Si $v\in V$ y $\phi\in V^*$ y representamos las coordenadas de un covector como a $1\times n$ matriz, entonces $\phi(v)=[\phi]_{\mathcal B^*}[v]_{\mathcal B}$ si las dos bases son duales. Es decir, si $\mathcal B=(v_1,\dots,v_n)$ y $\mathcal B^*=(\beta_1,\dots,\beta_n)$ debemos tener $\phi_i(v_j)=\delta_{ij}$ para que se cumpla la identidad anterior. Para cerrar el círculo, el Teorema de la representación de Riesz conecta covectores y productos internos: Si $H$ es un espacio de Hilbert, entonces para cada elemento $\phi\in H^*$ hay algún fijo $x\in H$ tal que $\phi(y)=\langle y,x\rangle$ para todos $y\in H$ .
Debo señalar que si estamos hablando de espacios vectoriales complejos, entonces tenemos que tomar la transposición conjugada en lugar de una transposición simple, es decir, $[v]_{\mathcal B}^H[w]_{\mathcal B}$ en lugar de $[v]_{\mathcal B}^T[w]_{\mathcal B}$ .
No. Estás confundiendo el producto punto con la multiplicación matricial.
Con el producto punto tomas dos vectores y tu respuesta final es un escalar (número) y los dos vectores tienen que ser de la misma dimensión porque así es como se definió el producto punto.
Para la multiplicación de matrices, tomas dos matrices y tu respuesta final es otra matriz (o un vector de filas (matriz 1xn) o un vector de columnas (matriz nx1)), pero para ello necesitas que el número de columnas de tu primera matriz sea igual al número de filas de tu segunda matriz porque así es como se definió la multiplicación de matrices.
No. Para empezar, no hay nada sacrosanto en un vector columna frente a un vector fila.
Por otra parte, el producto punto de dos vectores se define de una determinada manera, que tiene sentido. A saber $\vec a\cdot\vec b=a_1b_1+a_2b_2+\dots+a_nb_n$ donde el $a_i$ y $b_i$ son los componentes de $a$ y $b$ respectivamente.
Mientras te ciñas a la definición no tendrás problemas.
El "producto punto" de dos vectores $v_{a}$ y $v_{b}$ es suele expresarse como una multiplicación de matrices, $$ v_{a} \cdot v_{b} = v_{a}^{T} v_{b}, $$ pero puede escribirse sin notación matricial como la suma de los productos por pares de los componentes vectoriales, $$ v_{a} \cdot v_{b} = \sum_{i} v_{a}^{i} v_{b}^{i}. $$
Del mismo modo, el producto interno ponderado de la matriz se expresa a menudo mediante la multiplicación de matrices como $$ \langle v_{a} , v_{b}\rangle = v_{a}^{T} M v_{b}, $$ pero puede escribirse sin notación matricial como $$ \langle v_{a} , v_{b}\rangle = \sum_{i,j} v_{a}^{i} M_{ij}\, v_{b}^{j}. $$
Para ambos productos, la transposición $v_{a}$ y el uso de la operación de matriz es una implementación del enfoque de suma sobre índice, pero no cambia fundamentalmente nada sobre el tipo de vector con el que se está trabajando.
- Ver respuestas anteriores
- Ver más respuestas