2 votos

Derivado total de $\psi(x) = \frac{1}{\left \| x \right \|^p}Ax$

He estado intentando encontrar la derivada de Fréchet de la siguiente función: $\psi(x) = \frac{1}{\left \| x \right \|^p}Ax$ $(x \in \mathbb{R}^n, A \in\mathbb{R^{m \times n}})$ . Una posibilidad sería utilizar la derivada de operadores continuos y bilineales sobre Espacios de Banach, por lo que en este caso si podríamos establecer $\psi(x)=B(f(x),g(x))$ mientras que $f:\mathbb{R^n} \rightarrow \mathbb{R}, x \mapsto\frac{1}{\left \| x \right \|^p}$ y $g:\mathbb{R^n} \rightarrow \mathbb{R^m}, x \mapsto Ax $ . Y $B:(\mathbb{R} \times \mathbb{R}^m) \simeq \mathbb{R}^{m+1} \rightarrow \mathbb{R}^m ,B(x,y)=xy$ $$$$ La fórmula a la que he llegado es la siguiente ( $Df$ es la derivada total de $f$ ): $$D\psi(x)=g(x)Df(x)+f(x)Dg(x)$$ Pero entonces el artículo de wikipedia sobre la regla del producto afirma que: $$D(f \cdot g)=Df \cdot g+f \cdot Dg(x) ("." \text{represents scalar multiplication})$$ que es diferente como $Df$ y $g$ no se desplacen. He comprobado las dimensiones de los objetos que estoy usando para ver dónde está la diferencia, y de hecho he descubierto que usando el artículo de la Wikipedia las dimensiones de la multiplicación de matrices no coinciden. ¿Alguien ve si hay un error en mi razonamiento, y si es así dónde?

Por cierto, busco una respuesta que NO utilice derivadas parciales. Por supuesto que puedo resolver este problema utilizándolas, pero estoy buscando un enfoque más general que no se base únicamente en cálculos pesados.

1voto

HWV Puntos 1

Así es, $Df(x) \cdot g(x)$ si lo interpretamos como una multiplicación de matrices dará como resultado $1 \times n$ (vector fila) por a $m \times 1$ matriz (vector columna) que ni siquiera está definido, por lo que tiene que ser al revés, como usted sugirió.

Para mí, la forma más clara de aplicar la regla del producto es siempre: si $\psi(x) = B(f(x), g(x))$ entonces \begin{align} D \psi_x(\cdot) = B(Df_x(\cdot), g(x)) + B(f(x), Dg_x(\cdot)) \end{align} Esto es cierto incluso si los mapas son entre espacios de Banach, y por supuesto fácil de recordar, porque mantenemos el orden de multiplicación $B(\cdot, \cdot)$ y simplemente diferenciar término por término.

Ten en cuenta que esto, por supuesto, no contradice lo que has escrito; la representación matricial del primer término, $B(Df_x(\cdot), g(x))$ es $[g(x)] \cdot [Df_x]$ ( $m \times 1$ veces $1 \times n$ ), mientras que para el segundo término, $B(f(x), Dg_x(\cdot))$ es $f(x) \cdot [Dg_x]$ (varias veces $m \times n$ matriz).


En cualquier caso, yo no diría que la ecuación $D(f \cdot g) = Df \cdot g + f \cdot Dg$ es incorrecta, sino que no se evalúa correctamente en todas partes (por lo que debe leerse con cuidado). Si evaluamos en todas partes, entonces se lee: \begin{align} D(f \cdot g)_x[h] &= Df_x[h] \cdot g(x) + f(x) \cdot Dg_x[h] \end{align} Por supuesto, esto es correcto, porque en lugar de escribir $B()$ para la multiplicación bilineal, simplemente utilizamos a $\cdot$ para indicar la multiplicación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X