4 votos

¿Por qué la derivada direccional es el producto punto de la dirección y el gradiente? ( $\nabla_\hat{v} f = \nabla f \bullet \hat{v}$ )

He visto la afirmación de que la derivada direccional de $f$ en la dirección $\hat{v}$ donde $||\hat{v}|| = 1$ (denominado $\nabla_\hat{v} f$ ) es igual al gradiente de $\nabla f$ salpicado de $\hat{v}$ .

He intentado demostrármelo a mí mismo, pero me he atascado: $\newcommand{\R}{\mathbb{R}}$ $\newcommand{\limit}[2]{\lim_{#1 \to #2}}$ $\newcommand{\pderiv}[2]{\dfrac{\partial#1}{\partial#2}}$

Sea $f : \R^n \to \R$

Acepto que

$$ \nabla_{\hat{v}} f = \limit{h}{0} \frac{f(x + h\hat{v}) - f(x)}{h}$$

por tener un sentido intuitivo. Además sé que

$$ \pderiv{f}{x_i} = \limit{h}{0} \frac{f(x + h\hat{i}) - f(x)}{h} $$

donde $\hat{i}$ es el vector unitario del $i$ -dimensión. También sé que

$$\nabla f = \left( \pderiv{f}{x_1}, \dots, \pderiv{f}{x_n} \right)$$

Ahora quiero demostrar que $\nabla_\hat{v} f = \nabla f \bullet \hat{v}$ :

\begin{align*} \nabla f \bullet \hat{v} & = \left( \pderiv{f}{x_1}, \dots, \pderiv{f}{x_n} \right) \bullet v\hat{v}\\ &= \sum_{i = 1}^{n} \pderiv{f}{x_i} \cdot \hat{v}_i\\ &= \sum_{i = 1}^{n} \limit{h}{0} \frac{f(x + h\hat{i}) - f(x)}{h} \cdot \hat{v}_i\\ &= \sum_{i = 1}^{n} \limit{h}{0} \frac{\hat{v}_if(x + h\hat{i}) - \hat{v}_if(x)}{h}\\ \end{align*}

Y ahora estoy atascado. No veo la manera de transformar la última línea en $\limit{h}{0} \frac{f(x + h\hat{v}) - f(x)}{h}$ alcanzar $\nabla_{\hat{v}} f$

¿Puede ayudarme?


Editar

Ahora entiendo conceptualmente por qué el producto punto de dirección y gradiente es la derivada direccional:

Supongamos que tenemos una función diferenciable $f$ de $\mathbb{R}^2$ a $\mathbb{R}^3$ mapear el $xy$ -plano en el $xyz$ -y queremos conocer la derivada direccional de $f$ en un punto $p = (x', y')$ para algún vector $u$ .

Lo primero que necesitamos saber es cuánto $f$ cambios en $x$ dirección y cuánto cambia en $y$ dirección.

Entonces tenemos que darnos cuenta de que para distancias pequeñas cualquiera que sea la dirección en la que vayamos a lo largo de la superficie de $f$ el cambio total de altura es la suma del cambio de altura en el $x$ componente de nuestra dirección y el cambio de altura en $y$ componente en nuestra dirección.

Pero ahora podemos ponderar las derivadas parciales para el $x$ y $y$ con los componentes de $u$ obtener sus contribuciones individuales para la dirección en la que $u$ ¡está señalando!

Así que si $u$ tiene un $x$ -componente de $u_x$ ponderamos la derivada parcial de $f$ para la $x$ dirección en consecuencia. Si hacemos lo mismo con $y$ obtenemos:

$f'(x') \cdot u_x + f'(y') \cdot u_y$

que de hecho es $\nabla f \bullet u$

Lo entendí después de escuchar esta conferencia:

https://www.youtube.com/watch?v=tDPp5uWSIiU

5voto

CodingBytes Puntos 102

Hay más en el gradiente que el $n$ -de derivadas parciales.

La función $f:\>{\mathbb R}^n\to{\mathbb R}$ es diferenciabl e en $x$ si existe un mapa lineal $L:\>{\mathbb R}^n\to{\mathbb R}$ tal que $$f(x+X)-f(x)=LX\ +o\bigl(|X|\bigr)\qquad(X\to0)\ .\tag{1}$$ Este mapa está determinado unívocamente y se denota por $df(x)$ (o similar). Desde $df(x)$ en este caso es un funcional lineal, por álgebra lineal existe un vector $a\in{\mathbb R}^n$ tal que $$df(x).X= a\cdot X\qquad(X\in{\mathbb R}^n)\ .$$ Este vector $a$ se denomina gradiente de $f$ en $x$ y se denota por $\nabla f(x)$ . Desde el punto de vista de las coordenadas tenemos $$\nabla f(x)=\left({\partial f\over\partial x_1},\ldots,{\partial f\over\partial x_n}\right)_x\ ,$$ pero no lo necesitaremos. De todos modos, ahora podemos escribir $(1)$ de la forma $$f(x+X)-f(x)=\nabla f(x)\cdot X\ +o\bigl(|X|\bigr)\qquad(X\to0)\ .\tag{2}$$ Sea ahora un vector unitario $e$ sea dada. Dejar $X:=t\,e$ en $(2)$ implica $$f(x+ t e)-f(x)=t\>\nabla f(x)\cdot e +\ o\bigl(|t|\bigr)\qquad(t\to0)\ ,$$ de ahí $$D_e f(x):=\lim_{t\to0+}{f(x+ t e)-f(x)\over t}=\nabla f(x)\cdot e\ ,$$ como se afirma.

3voto

DanDoe Puntos 3

$\newcommand{\limit}[2]{\lim_{#1 \to #2}}$

Dado que esta pregunta aún no tiene una respuesta aceptada y me encontré buscando una prueba clara y fácil de entender con pocos requisitos previos. Encontré una en 1 que me gustaría compartir con ustedes.

Estamos intentando probar

$$ \nabla_{\boldsymbol{v}} f(\boldsymbol{x}) = \nabla_{\boldsymbol{x}} f({\boldsymbol{x}}) \cdot \boldsymbol{v}. $$

Defina $\boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}: \mathbb{R} \rightarrow \mathbb{R}^{\mathrm{dim}(\boldsymbol{x})} , \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}} : h \mapsto \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}(h) := \boldsymbol{x} + h \boldsymbol{v}$

y $g_{\boldsymbol{x}, \boldsymbol{v}}: \mathbb{R}\rightarrow \mathbb{R}, g_{\boldsymbol{x}, \boldsymbol{v}} : h \mapsto g_{\boldsymbol{x}, \boldsymbol{v}}(h) := f( \boldsymbol{x} + h \boldsymbol{v} ) = f(\boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}})$

Partiendo de la definición de la derivada direccional,

\begin{align} \nabla_{\boldsymbol{v}} f(\boldsymbol{x}) =& \limit{h}{0} \frac{f(\boldsymbol{x} + h\boldsymbol{v}) - f(\boldsymbol{x})}{h} \\ =& \limit{h}{0} \frac{g_{\boldsymbol{x}, \boldsymbol{v}}(h) - g_{\boldsymbol{x}, \boldsymbol{v}}(0)}{h} \\ =& g_{\boldsymbol{x}, \boldsymbol{v}}'(0) \equiv \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}} {\mathrm{d} h} \Biggr|_{0} \end{align}

Consideremos ahora para un $h \in \mathbb{R}$

\begin{align} \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}(h)} {\mathrm{d} h} =& \frac{\mathrm{d} f\big( \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}(h) \big)} {\mathrm{d} h} \\ =& \frac{\mathrm{d} f} {\mathrm{d} \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}} \cdot \frac{\mathrm{d} \boldsymbol{y}_{\boldsymbol{x}, \boldsymbol{v}}}{\mathrm{d}h} \\ =& \nabla_{\boldsymbol{y}_{\boldsymbol{x}, \boldsymbol{v}}} f \cdot \frac{\mathrm{d} (\boldsymbol{x} + h \boldsymbol{v})}{\mathrm{d}h} \\ =& \nabla_{(\boldsymbol{x} + h \boldsymbol{v})} f \cdot \boldsymbol{v} \end{align}

Que da para $h=0$

$$ \nabla_{\boldsymbol{v}} f(\boldsymbol{x}) = g_{\boldsymbol{x}, \boldsymbol{v}}'(0) \equiv \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}} {\mathrm{d} h} \Biggr|_{0} = \nabla_{\boldsymbol{x} } f \cdot \boldsymbol{v} .$$

Referencias:

1 Jorge Nocedal, Stephen J. Wright. Numerical Optimization. Springer, Nueva York, NY. La prueba se encuentra en la p. 581 de la segunda edición. DOI . URL ISBN impreso: 978-0-387-98793-4. ISBN en línea: 978-0-387-22742-9

1voto

timdev Puntos 25910

Sea $v:=(v_1,v_2,...,v_n)$ y $x:=(x_1,...,x_n)$ . Defina $y$ con $y_k:=x_k+hv_k$ para $h>0$ y $k=1,...,n$ para que $y=x+hv$ . Entonces $$\frac{df(y_1,...,y_n)}{dh}=\frac{\partial f}{\partial y_1}\frac{dy_1}{dh}+...+\frac{\partial f}{\partial y_n}\frac{dy_n}{dh}=\frac{\partial f}{\partial y_1}v_1+...+\frac{\partial f}{\partial y_n}v_n=\langle\nabla_y f,v\rangle$$ Por otra parte $$\frac{df(y_1,...,y_n)}{dh}=\frac{df(x+hv)}{dh}:=g'(h)$$ donde $g(h):=f(x+hv)$ . Por lo tanto $$g'(0)=\lim_{h\to 0}\frac{f(x+hv)-f(x)}{h}=\frac{df}{dh}\Big|_{h=0}=\langle\nabla_y f,v\rangle\Big|_{h=0}=\langle\nabla_x f,v\rangle$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X