Supongamos que tenemos una función formada por una serie de matrices multiplicadas por un vector: $$f(x) = ABb,$$ donde
- $x$ es un vector que contiene elementos que se encuentran dentro de $A, b$ y/o $b$ ,
- $A$ es una matriz, $B$ es una matriz, y $b$ es un vector.
Cada matriz y el vector se expresan como más términos, es decir \begin{align*} &x = (x_1, x_2, x_3),\\ &A = \pmatrix{ x_1 + y_1& y_4& y_7\\ y_2& x_2 + y_5& y_8\\ y_3& y_6& x_3 + y_9}, \ B = \pmatrix{ y_1& x_2 + y_4& x_3 + y_7\\ x_1 + y_2& y_5& y_8\\ y_3& y_6& y_9}, \ b=\pmatrix{y_1\\ y_2\\ y_3}. \end{align*} Ahora queremos encontrar el jacobiano de $f$ - es decir, la derivada parcial de $f$ por ejemplo $x$ .
Una forma de hacerlo es multiplicar las dos matrices y luego multiplicarlas por el vector, creando una $3\times1$ vector en el que cada elemento es una expresión algebraica resultante de la multiplicación de matrices. La derivada parcial podría entonces calcularse por elemento para formar un $3\times3$ Jacobiano. Esto sería factible en el ejemplo anterior, pero el que estoy trabajando es bastante más complicado (y por tanto también tendría que buscar patrones para simplificarlo después).
Quería intentar utilizar la regla de la cadena y/o la regla del producto para las derivadas parciales si era posible. Sin embargo, con la regla del producto terminas con $A' Bb + AB' b + ABb'$ donde cada derivada es con respecto al vector $x$ . Tengo entendido que la derivada de una matriz con respecto a un vector es en realidad un tensor de tercer orden, que no es fácil de tratar. Si esto no es correcto, los otros términos todavía tienen que evaluarse en matrices para que la suma de matrices sea válida. Si utilizo la regla de la cadena en su lugar, sigo teniendo la derivada de una matriz respecto a un vector.
¿Existe una manera más fácil de descomponer un problema de cálculo matricial como éste? He buscado en la web y no encuentro una buena dirección.